
L'utilisation d'applications d'intelligence artificielle (IA) pour créer de fausses images nues d'adolescents a un impact profond sur les communautés scolaires à travers les États-Unis .
Les étudiants concernés, principalement des jeunes femmes, sont confrontés à un mélange de honte, de peur et de perte de contrôle sur leur image d'eux-mêmes. Ces photos, créées en fusionnant les visages des victimes avec des corps nus, ont suscité des poursuites et du harcèlement, même si les camarades de classe eux-mêmes savent qu'elles sont fausses.
Le phénomène est devenu particulièrement évident dans un lycée de Westfield, dans le New Jersey , il y a six mois, lorsque des images ont été partagées lors de discussions de groupe, laissant les étudiantes humiliées.
"Ils les considéraient comme sales, même s'ils disaient que c'était une fausse photo", a déclaré un adolescent de Las Vegas interrogé par Human Factor , une société spécialisée dans la résolution de conflits qui a enquêté sur l'affaire.
Enquêtes et données collectées
Le cabinet Human Factor a interrogé des étudiants, des parents et des membres de la communauté de Westfield pendant deux jours en février, puis en mars et avril, ils ont interrogé plus de 1 000 étudiants, enseignants et parents dans tout le pays.
L'étude, citée par le Wall Street Journal (WSJ), révèle que 73 % des personnes interrogées estiment que la victime est plus affectée par ces fausses photos que ceux qui les ont créées. "Même si l'image était démentie et considérée comme fausse, la personne serait quand même harcelée", a déclaré un étudiant d'Eldorado, dans l'Illinois.
Le problème est aggravé par la capacité des outils d’IA à créer des images incroyablement réalistes, ce qui amène les deux tiers des étudiants interrogés à supposer que la photo est réelle si elle semble authentique. Seul un tiers d’entre eux ont déclaré qu’ils demanderaient à la victime si l’image est authentique.
Les chercheurs de Human Factor ont découvert que les parents voient rarement ces images, car elles sont souvent partagées sur des discussions privées ou sur des plateformes de messagerie éphémère comme Snapchat . Cela signifie que la diffusion de ces photos se fait sans trop d’obstacles. Face au manque d'intervention des adultes et à la peur des élèves d'avoir des ennuis, les fausses images continuent de circuler sans obstacles majeurs.

L’affaire Westfield, New Jersey n’est pas la seule
L'affaire Westfield n'est pas un événement isolé. Des incidents similaires sont signalés dans de nombreuses écoles aux États-Unis , soulignant l'ampleur du problème.
À Beverly Hills, en Californie , cinq lycéens ont été expulsés après avoir été accusés d'avoir créé de fausses images nues de leurs camarades de classe.
De même, un élève d’un lycée de l’État de Washington a également été expulsé pour des activités similaires. De plus, deux adolescents d'un lycée de Miami, en Floride , ont été arrêtés et font face à des accusations fédérales après avoir partagé de fausses images nues de leurs camarades de classe.
En mars 2023, le FBI a publié un avertissement public indiquant clairement qu'il est illégal pour quiconque, y compris les adolescents, d'utiliser l'IA pour créer du matériel pédopornographique. "Et même les adolescents peuvent faire face à de graves accusations s'ils participent à ces activités", indique le communiqué du FBI cité par le WSJ .
Des recherches récentes révèlent que la situation pourrait empirer. Environ 60 % des étudiants interrogés par les chercheurs pensent que leurs pairs utiliseraient l’IA pour générer de fausses images de nus.

Mesures et recommandations
Selon les experts, les parents devraient parler à leurs enfants de la bonne utilisation de ces technologies d’intelligence artificielle. Les écoles ont également un rôle clé dans cette tâche et devraient mettre à jour leurs codes de conduite scolaires pour inclure des directives claires sur l’utilisation des images générées par l’IA.
Dans ces nouveaux codes, il est essentiel que les conséquences de la création et du partage de fausses images de nus soient détaillées. Ceci est important pour éviter toute confusion et établir un cadre réglementaire spécifique. « Il est crucial que les étudiants comprennent les implications juridiques et éthiques d’une mauvaise utilisation des images générées par l’IA », ont souligné les chercheurs.
En outre, il est suggéré que les centres éducatifs encouragent et permettent des mécanismes permettant aux étudiants de signaler l'apparition de ces images dès qu'ils les détectent.
Les recherches indiquent que la création d’une culture de reporting et de dialogue ouverts peut contribuer de manière significative à atténuer le problème. « Activer les canaux de signalement peut empêcher la propagation et les dommages potentiels de ces fausses images », ont-ils noté.
Une autre recommandation clé est que les écoles effectuent des exercices de simulation aux côtés des élèves, simulant des scénarios hypothétiques dans lesquels ils pourraient être impliqués grâce à l’utilisation de l’IA générative. Ces exercices, conçus par des chercheurs, permettent aux étudiants d'explorer les conséquences de leurs actes dans un environnement contrôlé et sécuritaire.
De plus, il est recommandé aux établissements d’enseignement de mener des campagnes au cours desquelles les étudiants expérimentent des outils d’IA pour générer des images. L’objectif est de sensibiliser les jeunes aux usages appropriés et aux risques liés à un usage inapproprié.
Ces campagnes peuvent inclure des ateliers et des activités éducatives pour renforcer l'apprentissage. Selon les chercheurs, « l’expérimentation dirigée et supervisée peut être un outil pédagogique précieux ».
Cette approche multidimensionnelle améliore non seulement la compréhension des élèves des implications technologiques et éthiques de l'utilisation de l'IA, mais établit également un cadre de normes et de discipline au sein des écoles. « Ce n’est plus seulement une question technologique ; "Il s'agit d'un problème social et éducatif auquel toutes les institutions doivent s'attaquer activement", ont déclaré les chercheurs.
Les parents jouent également un rôle crucial et devraient être équipés d'outils et de guides pour engager des conversations efficaces avec leurs enfants sur ces sujets. Il est essentiel qu'ils comprennent à la fois les risques et les opportunités que les nouvelles technologies peuvent apporter à la vie de leurs enfants. Selon les spécialistes, ce dialogue ne devrait pas être une conversation ponctuelle, mais plutôt faire partie d' une formation continue sur la responsabilité numérique .
Nouveau