
Jacob Elordi , protagoniste de la série Euphoria et du film Saltburn , a récemment été victime d'une fausse vidéo de sexe circulant sur les réseaux sociaux. Depuis lundi soir, des posts sur
Selon certaines informations, dans la vidéo, on peut voir un homme en train de se masturber et le visage d'Elordi a été ajouté avec une intelligence artificielle. Les publications dans lesquelles le clip était joint ont rapidement accumulé plus de trois millions de vues, selon un rapport de NBC News. La plate-forme X a supprimé le message d'origine, notant qu'il « violait les règles anti-abus ».
Le deepfake implique non seulement Elordi, mais également le créateur original du contenu, qui était mineur au moment de l'enregistrement des images.
Un utilisateur d'OnlyFans , identifié sur X comme @mentallyillgus, a affirmé être la personne dans la vidéo et a révélé qu'il n'avait que 17 ans au moment de l'enregistrement. « Les deepfakes deviennent inquiétants », a-t-il écrit sur les réseaux sociaux après avoir reconnu sa vidéo.

Le jeune homme, actuellement âgé de 19 ans et résidant au Brésil, a commenté plusieurs messages sur X et a demandé la suppression de la vidéo manipulée.
Que sont les deepfakes ?
Les deepfakes sont des vidéos auxquelles intervient l'intelligence artificielle pour placer le visage d'une personne sur le corps d'une autre, avec un haut niveau de réalisme. Bien qu’elle ait des applications légitimes dans l’industrie du divertissement et dans la recherche, son utilisation pour créer des vidéos pornographiques non consensuelles soulève de sérieuses préoccupations éthiques et juridiques.
Le cas d'Elordi n'est pas isolé. Ces dernières années, on a assisté à une augmentation de la diffusion de deepfakes sexuels sans l’autorisation de leurs protagonistes.

Mais outre son impact sur les célébrités, cette pratique invasive a également touché de nombreux créateurs de contenu sur des plateformes telles que TikTok et met en danger les adolescents. Les spécialistes de la technologie n'ont pas hésité à condamner ces montages inquiétants comme une forme d'agression sexuelle .
Peut-on faire quelque chose pour arrêter la distribution de deepfakes non autorisés ? NBC News note que, depuis avril 2023 ,

Un article de Vox prévient qu'en 2019, une société de cybersécurité a détecté que 96 % des vidéos deepfake circulant sur Internet sont pornographiques et que la grande majorité d'entre elles impliquent des femmes.
Dans le rapport du cabinet DeepTrace, un professeur de Boston explique pourquoi il est vital de contrôler ce type d'activité : « Des vidéos deepfake explicites disent aux personnes concernées que leur corps ne leur appartient pas, elles rendent difficile leur maintien sur Internet. , et ils nuisent également à l’obtention ou au maintien d’un emploi et au sentiment de sécurité.
Nouveau