
Il y a à peine quelques semaines, en recherchant sur la plateforme « deepfake nudes Jennifer Aniston », on obtenait de multiples résultats prétendant contenir des images explicites de l'actrice générées par IA. De nos jours, ces résultats n'apparaissent plus grâce aux nouveaux réglages, en raison de la façon dont l'application classe ces contenus.
Emma Higham, responsable produit chez Google, a expliqué, à travers le blog de la plateforme, que les nouveaux changements mis en œuvre cette année ont réduit l'exposition à des images explicites fausses de plus de 70 % dans les recherches visant un individu spécifique.

Les changements de Google pour réduire les deepfakes
Google a facilité pendant des années la demande de suppression d'images explicites non consensuelles. Cependant, les nouvelles mesures cherchent à rendre ce processus encore plus simple et efficace. Les personnes peuvent désormais demander la suppression d'images explicites fausses et, une fois la demande acceptée, les systèmes de l'application filtreront également tous les résultats explicites similaires concernant cette personne.
De plus, si une image est supprimée en vertu de ces politiques, les systèmes scanneront et élimineront tout duplicata de cette image qu'ils trouvent.
Cependant, la lutte contre les deepfakes ne s'arrête pas à la suppression de contenu. Google a également apporté des améliorations à ses systèmes de classement des résultats de recherche et des mises à jour sont en cours d'implémentation dans le classement qui réduiront le contenu explicite faux dans de nombreuses recherches.
Pour les requêtes cherchant spécifiquement ce type de contenu et incluant des noms de personnes, l'application cherchera à afficher un contenu non explicite de haute qualité, comme des articles d'actualité pertinents.

Les changements réalisés cette année ont réduit l'exposition à des résultats d'images explicites dans ce type de requêtes de plus de 70 %. Avec ces modifications, les gens peuvent lire l'impact que les deepfakes ont sur la société, au lieu de voir des pages avec des images fausses sans consentement.
Différenciation entre contenu explicite réel et faux
Un des plus grands défis techniques pour les moteurs de recherche est de distinguer entre contenu explicite réel et consensuel, comme des scènes de nu d'un acteur dans un film, et du contenu explicite faux, comme des deepfakes impliquant cet acteur.
En général, si un site a de nombreuses pages supprimées de la recherche en vertu des politiques de Google, cela constitue un signe fort qu'il ne s'agit pas d'un site de haute qualité, et cela doit être pris en compte pour classer d'autres pages de ce site.

Par conséquent, les sites qui ont reçu un volume élevé de suppressions d'images explicites fausses sont en train d'être déclassés. Cette approche a bien fonctionné pour d'autres types de contenu nuisible et les tests de Google montrent que cela devrait être une manière de réduire le contenu explicite faux dans les résultats de recherche.
Malgré ces mesures, Google reconnaît que les solutions actuelles ne sont pas parfaites. Les efforts pour lutter contre les deepfakes explicites sont un travail en cours et la plateforme continue de développer de nouvelles solutions pour aider les personnes concernées par ce type de contenu.
En outre, étant donné que ce défi va au-delà des moteurs de recherche, l'entreprise continue d'investir dans des partenariats au niveau de l'industrie et dans l'engagement avec des experts pour aborder le problème en tant que société.