En 2023, plus de 36,2 millions de cas de maltraitance d'enfants sur Internet ont été signalés , ce qui représente une augmentation de 12 % par rapport à l'année précédente.
Cette croissance comprend une tendance inquiétante : la création de matériel pédopornographique utilisant l’intelligence artificielle, qui est désormais surveillée comme une nouvelle catégorie à partir de 2023, enregistrant 4 700 signalements d’images ou de vidéos générées par l’IA qui exploitent sexuellement des mineurs.
Pourquoi les deepfakes aggravent le problème
L'un des aspects les plus inquiétants soulignés dans le rapport est l'utilisation de l'intelligence artificielle pour fabriquer des deepfakes , des images ou des vidéos sexuellement explicites d'enfants, basées sur de vraies photographies, ou pour générer du contenu qui représente des enfants informatisés dans des actes sexuels graphiques.
« Pour les enfants vus dans ces deepfakes et leurs familles, c'est dévastateur », souligne le rapport du NCMEC, soulignant également à quel point ce type de contenu rend difficile l'identification des véritables victimes de maltraitance sur enfants. En outre, une telle exploitation financière et émotionnelle peut se propager en l’absence de mesures décisives.
Le volume de signalements impliquant du matériel pédopornographique (CSAM) reçus au cours de la seule année 2023 s'élève à plus de 35,9 millions, dont plus de 90 % ont été téléchargés depuis l'extérieur des États-Unis .
Il a également été noté qu'environ 1,1 million de ces rapports ont été transmis à la police américaine , soulignant que 63 892 de ces rapports étaient urgents ou impliquaient un enfant en danger imminent. Cette année, 245 entreprises ont fait rapport au CyberTipline du NCMEC, sur un total de 1 600 entreprises enregistrées dans le monde dans le cadre du programme de signalement des cyberalertes.
Il convient de noter que les fournisseurs de services Internet basés aux États-Unis, y compris les plateformes de médias sociaux, sont légalement tenus de signaler les cas de CSAM à CyberTipline lorsqu'ils en ont connaissance.
Qu’en est-il du chantage sexuel financier
Le NCMEC s'est dit préoccupé non seulement par la tendance alarmante de l'augmentation du matériel généré par l'IA, mais également par le recours au chantage sexuel financier . Dans ce système, un prédateur en ligne incite un enfant à lui envoyer des images ou des vidéos nues, puis lui demande de l'argent.
Cette année, certains cas ont été identifiés dans lesquels des familles et des enfants ont été extorqués financièrement par des criminels utilisant du CSAM alimenté par l'IA .
Cependant, le NCMEC et les forces de l’ordre sont confrontés à des difficultés lorsqu’il s’agit d’agir sur certains rapports, notamment ceux générés par des algorithmes de modération de contenu, sans intervention humaine. Cela a révélé un décalage entre le volume des signalements soumis et leur qualité, ce qui empêche parfois la police d'enquêter sur les abus potentiels sur les enfants générés par les algorithmes de modération du contenu.
« Le nombre relativement faible d’entreprises déclarantes et la mauvaise qualité de nombreux rapports soulignent la nécessité continue d’agir de la part du Congrès et de la communauté technologique mondiale », indique le rapport du NCMEC.
Dans le contexte juridique des États-Unis, la création de matériel montrant des mineurs se livrant à des comportements sexuellement explicites constitue un crime fédéral , selon un procureur du ministère de la Justice du Massachusetts, qui a préféré rester anonyme.
Cependant, l'inquiétude croissante concernant l'exploitation des enfants en ligne, exacerbée par la complicité de l'intelligence artificielle, souligne l' urgence de résoudre ce problème par des mesures concrètes et efficaces .