Cette initiative intervient à un moment critique, marqué par la menace croissante des deepfakes et de la désinformation en ligne. Avec la capacité croissante de l’IA générative à créer des contenus de plus en plus réalistes et convaincants, le besoin d’outils efficaces pour identifier et vérifier l’authenticité dudit contenu devient évident.
À quoi ressemble l’outil OpenAI ?
Le nouvel outil d'OpenAI est basé sur un classificateur avancé capable d'identifier les images créées par son générateur d'images populaire, DALL-E.
Ce classificateur a été soumis à des tests rigoureux qui ont démontré une précision de 98,8% dans l'identification des images générées par cette intelligence artificielle. Ce niveau de précision est un point important dans la lutte contre la désinformation en ligne et les tentatives de manipulation par images de synthèse.
Le fonctionnement de l'outil repose sur l'utilisation d'algorithmes d'intelligence artificielle pour analyser les caractéristiques uniques des images et déterminer si elles ont été générées par DALL-E ou non . De plus, l'outil est capable de détecter des modifications mineures des images, telles que la compression, le recadrage ou les changements de saturation, ce qui le rend encore plus robuste contre les tentatives de tromperie.
Il est toutefois important de noter que l’outil n’est pas infaillible. Bien qu'il puisse identifier avec précision les images générées par DALL-E, son efficacité dans la détection du contenu généré par d'autres IA génératives est limitée, marquant entre 5 % et 10 % dans son ensemble de données internes. Par conséquent, il n’est pas compatible avec des plateformes telles que Midjourney ou Stability.
OpenAI a adopté une approche globale pour résoudre la question de l'authenticité du contenu numérique. Parallèlement au développement de cet outil de détection d'images, l'entreprise a rejoint le comité de pilotage de la Coalition for Content Provenance and Authenticity (C2PA). Cette coalition se concentre sur l'établissement de normes ouvertes pour certifier l'authenticité du contenu numérique et partager des informations sur la manière dont il a été créé.
L'intégration des métadonnées standard C2PA dans toutes les images créées et éditées par DALL-E 3, le dernier modèle d'image d'OpenAI, constitue une étape cruciale pour garantir l'authenticité du contenu numérique. Ces métadonnées fournissent des informations sur la provenance et l’authenticité des images, ce qui contribue à renforcer la confiance dans leur véracité.
En plus de contribuer aux normes d'authenticité du contenu, OpenAI développe de nouveaux outils pour améliorer l'intégrité du contenu numérique. Cela inclut la mise en œuvre de filigranes inviolables sur des contenus tels que l'audio, ainsi que des classificateurs de détection qui utilisent l'intelligence artificielle pour évaluer la probabilité que le contenu provienne de modèles génératifs.
La disponibilité de ces outils constitue une avancée significative dans la lutte contre la désinformation en ligne et la manipulation des contenus numériques. OpenAI a annoncé qu'elle ouvrait les applications permettant d'accéder à son classificateur de détection d'images à un groupe sélectionné de testeurs , y compris des laboratoires de recherche et des organisations de journalisme à but non lucratif, via son programme d'accès aux chercheurs.
Cette mesure permettra une évaluation indépendante de l'efficacité de l'outil et de son application dans le monde réel.