
Les photographies ont un pouvoir profond pour façonner notre compréhension du monde. Et il n'a jamais été aussi important de pouvoir discerner lesquelles sont authentiques et lesquelles sont manipulées pour promouvoir un agenda, en particulier à la suite de moments dramatiques ou controversés.
Mais les avancées technologiques signifient que détecter des images manipulées ou même totalement générées par IA devient de plus en plus compliqué.
Prenez, par exemple, une photo de Catherine, Princesse de Galles, diffusée par le Palais de Kensington en mars. Les organisations de presse l'ont retirée après que des experts ont noté des manipulations évidentes. Et certains ont remis en question si les images capturées lors de la tentative d'assassinat de l'ancien président Donald Trump étaient authentiques.
Voici quelques éléments que les experts suggèrent de considérer la prochaine fois que vous rencontrez une image qui vous laisse perplexe.
Zoomer
Cela peut sembler basique, mais une étude de la chercheuse Sophie Nightingale à l'Université de Lancaster en Grande-Bretagne a révélé que, dans tous les groupes d'âge, les personnes qui prenaient le temps de zoomer sur les photos et d'examiner attentivement différentes parties étaient meilleures pour détecter les images altérées.
Essayez cela la prochaine fois que vous aurez une drôle d'impression à propos d'une photo. Assurez-vous simplement de ne pas vous concentrer sur les mauvaises choses. Pour vous aider, nous avons créé cette image d'exemple (légèrement exagérée) pour mettre en évidence certains signes communs de manipulation d'images.
Plutôt que de se concentrer sur des éléments tels que les ombres et l'éclairage, Nightingale a suggéré de rechercher des indices "photométriques" tels que le flou autour des bords des objets qui pourraient suggérer qu'ils ont été ajoutés plus tard ; une pixellisation notable dans certaines parties d'une image mais pas dans d'autres ; et des différences de coloration.
Pensez à ce perroquet : Tout d'abord, qui amène un perroquet dans un bureau de vote ?
Et regardez de plus près ses ailes ; les bords flous de ses plumes avant contrastent avec les découpes arrondies plus près de son corps. Cela ressemble clairement à un travail de Photoshop amateur.

Recherchez une géométrie étrange
Les détails fins sont parmi les choses les plus difficiles à éditer de manière parfaite dans une image, ce qui les rend souvent compromis. Cela est souvent facile à remarquer lorsque des motifs réguliers et répétitifs sont interrompus ou distordus.
Dans l'image ci-dessous, remarquez comment les formes des briques sur le mur derrière le séparateur sont déformées et écrasées. Quelque chose d'étrange s'est passé ici.
Pensez à la photo désormais infâme de la Princesse Catherine.
La princesse apparaissait avec les bras autour de deux de ses enfants. Les enquêteurs en ligne ont rapidement signalé des incohérences, y compris des tuiles de sol qui semblent se chevaucher et un peu de moulure qui semble désalignée.
Dans notre exemple de bureau de vote, avez-vous remarqué que cette personne avait un doigt supplémentaire ? Bien sûr, il se peut qu'elle ait une condition, comme la polydactylie, où les personnes naissent avec des doigts ou des orteils supplémentaires. Cependant, cela est un peu improbable, donc si vous remarquez des choses comme des doigts supplémentaires, cela pourrait être un signe que IA a été utilisée pour altérer l'image.
Ce n'est pas seulement une mauvaise utilisation de Photoshop qui ruine les détails fins. Le IA est notoirement peu fiable lorsqu'il s'agit de manipuler des images détaillées.
Jusqu'à présent, cela a été particulièrement vrai pour des structures comme la main humaine, bien qu'il s'améliore dans ce domaine. Cela dit, il n'est pas rare que les images générées par IA ou éditées avec elle montrent le nombre incorrect de doigts.

Considérer le contexte
Une façon de déterminer l'authenticité d'une image est de prendre du recul et de considérer ce qui l'entoure. Le contexte dans lequel une image est placée peut vous en dire beaucoup sur l'intention derrière son partage. Pensez à la publication sur les réseaux sociaux que nous avons créée ci-dessous pour notre image altérée.
Demandez-vous : Saviez-vous quelque chose sur la personne qui a partagé la photo ? Est-elle jointe à une publication qui semble destinée à provoquer une réaction émotionnelle ? Que dit la légende, s'il y en a une ?
Certaines images manipulées, ou même des images authentiques placées dans un contexte qui diffère de la réalité, sont destinées à faire appel à notre "pensée intuitive et instinctive", dit Peter Adams, vice-président senior recherche et design à News Literacy Project, une organisation à but non lucratif qui promeut l'évaluation critique des médias. Ces éditions peuvent générer artificiellement un soutien ou provoquer de la sympathie pour des causes spécifiques.
Nightingale recommande de se poser quelques questions lorsque vous remarquez une image qui vous fait réagir : "Pourquoi quelqu'un aurait-il pu publier cela ? Y a-t-il une motivation sous-jacente qui pourrait suggérer que cela pourrait être faux ?"
Dans de nombreux cas, ajoute Adams, les commentaires ou réponses associés à la photo peuvent révéler le faux pour ce qu'il est.
Voici un exemple du monde réel tiré de X. Une image générée par IA de Trump flanqué de six jeunes hommes noirs est apparue pour la première fois en octobre 2023, mais elle est réapparaître en janvier, jointe à une publication affirmant que l'ancien président avait arrêté sa caravane pour rencontrer les hommes lors d'une rencontre spontanée.
Il n'a pas fallu longtemps pour que les commentateurs signalent des incohérences, comme le fait que Trump semblait n'avoir que trois grands doigts sur sa main droite.

Aller à la source
Dans certains cas, des images authentiques proviennent de nulle part de manière à nous laisser nous demander si elles se sont réellement produites. Trouver la source de ces images peut aider à éclairer crucialement.
Au début de cette année, l'éducateur scientifique Bill Nye est apparu sur la couverture de Time Out New York, vêtu de manière plus à la mode que la blouse de laboratoire bleu clair que beaucoup d'entre nous se souviennent. Certains se sont demandé si les images avaient été générées par IA, mais suivre les crédits jusqu'au compte Instagram du photographe a révélé que l'homme de science portait réellement des vêtements avant-gardistes et jeunes.
Pour les images qui prétendent provenir d'un événement d'actualité réel, il vaut également la peine de vérifier des services de nouvelles comme Associated Press et Reuters, ainsi que des entreprises comme Getty Images, qui vous permettent de voir les images éditoriales qu'ils ont capturées.
Si vous trouvez l'image originale, vous regardez une authentique.

Essayez une recherche d'images inversée
Si une image semble hors de propos pour la personne qui y apparaît, semble intensément partisane ou ne passe tout simplement pas un test d'impression, les outils de recherche d'images inversées, comme TinEye ou Google Image Search, peuvent vous aider à trouver les originaux. Même s'ils ne le peuvent pas, ces outils peuvent toujours fournir un contexte précieux sur la image.
Voici un exemple récent : Peu après qu'un jeune de 20 ans a tenté d'assassiner Trump, une image est apparue sur le service de réseaux sociaux Threads, propriété de Meta, montrant des agents du Secret Service souriant tout en tenant l'ancien président. Cette image a été utilisée pour soutenir la théorie infondée selon laquelle le tir aurait été simulé.
La photo originale ne contient aucun sourire visible.
Même armés de ces conseils, il est peu probable que vous puissiez distinguer des images réelles de manipulées 100 % du temps. Mais cela ne signifie pas que vous ne devriez pas garder votre sens du scepticisme aiguisé. C'est une partie du travail que nous devons tous parfois faire pour nous rappeler qu'en des temps divisés et déroutants, la vérité factuelle existe toujours.
Perdre de vue cela, dit Nightingale, ne fait que donner aux acteurs malveillants l'opportunité de "rejeter tout".
“C'est là que la société est vraiment en danger”, a-t-elle déclaré.
(c) 2024 , The Washington Post
Nouveau