
Alors que l’IA s’intègre dans tous nos outils visuels, de la retouche photo à la création d’images, une question cruciale demeure : à partir de quel moment une image est-elle « générée par l’IA » ? Plus qu’un débat technique, c’est la confiance que nous accordons au réel qui est en jeu, forçant les créateurs, les journalistes et les plateformes à naviguer dans un monde où la vérité est devenue négociable.
Alors que l’intelligence artificielle générative continue de s’infiltrer partout, des appareils photo de nos smartphones aux logiciels de retouche d’images, une question d’une simplicité trompeuse reste sans réponse et de plus en plus urgente : quel niveau d’intervention de l’IA suffit pour qualifier une œuvre de « générée par l’IA » ?
La question n’est pas seulement technique ou juridique. C’est une question de vérité, de confiance et du langage même dont nous avons besoin pour naviguer dans un avenir où le « réel » devient négociable.
La frontière floue entre l’outil et l’auteur

Ce qui a commencé comme un traitement d’image déterministe – de simples filtres de netteté, des corrections d’exposition ou le lissage de la peau – a évolué vers quelque chose de fondamentalement différent. Aujourd’hui, l’IA ne se contente plus d’améliorer le travail créatif. Elle le génère, le refaçonne et en est même à l’origine. Et nous ne savons plus, avec certitude, où s’arrête la main de l’homme et où commence l’œil de la machine.
Un designer qui demande à Firefly de supprimer un arrière-plan a techniquement généré du contenu avec l’IA. De même, le photographe qui effectue des retouches dans Photoshop peut désormais utiliser l’apprentissage automatique pour réaliser les corrections les plus élémentaires. Tout comme l’utilisateur de smartphone dont l’appareil reconstruit silencieusement un ciel, augmente le contraste ou remplace des traits du visage par ce que l’algorithme estime qu’ils devraient être.
Si l’IA façonne discrètement l’image finale, celle-ci est-elle encore digne de confiance ?
Et appartient-elle même encore à l’humain qui en est à l’origine ?
Et la provenance, bien que précieuse, ne résout pas toujours le problème. Dans de nombreux cas, elle est inconnue. Et même lorsqu’elle l’est, nous manquons de références historiques ou de normes pour nous guider sur la confiance à lui accorder. Ce qui signifie que, trop souvent, le fardeau de la crédibilité retombe sur l’image elle-même.
Des étiquettes sans ligne directrice

La plupart des efforts actuels visant à promouvoir la transparence, que ce soit par des filigranes visibles, des métadonnées ou des étiquettes sur les plateformes, supposent que nous savons en premier lieu ce qui mérite une étiquette. Ce n’est pas le cas.
Le rapport de Meta, Watermarking and Metadata for GenAI Transparency at Scale – Lessons Learned and Challenges Ahead, illustre cette confusion avec une honnêteté rare. Lorsque l’entreprise a commencé à étiqueter les contenus de tiers comme « Créé avec l’IA » en se basant sur les métadonnées C2PA et IPTC, les utilisateurs ont protesté, non pas parce que l’étiquette était inexacte, mais parce qu’elle semblait disproportionnée. Beaucoup n’avaient utilisé rien de plus que des retouches automatisées ou des corrections de couleur, ignorant que ces outils sont désormais signalés comme améliorés par l’IA. Pour eux, l’étiquette était trompeuse, voire stigmatisante.
En réponse, Meta a discrètement changé de cap. L’étiquette est devenue « Infos IA » (AI Info), les labels pour les images légèrement modifiées ont été déplacés dans des menus contextuels, et les étiquettes visibles ont été conservées pour les médias entièrement synthétiques. Cette évolution reflète une vérité plus profonde : les gens se soucient moins de savoir si l’IA a été utilisée que de savoir si ce qu’ils voient est crédible.
Comme le conclut l’étude elle-même :
« Les résultats de notre recherche suggèrent que les préoccupations concernant la transparence de l’IA générative portent moins sur le fait qu’un contenu ait été créé ou modifié par l’IA générative… et plus sur le fait qu’un tel contenu, en particulier visuel, soit « réel ». »
L’étiquette « Créé avec l’IA » de Meta n’a peut-être pas donné les résultats escomptés. En d’autres termes, la provenance n’importe pas pour sa pureté – c’est-à-dire, son absence d’IA – mais pour sa crédibilité.
Cette ambiguïté a des conséquences réelles pour les créateurs. Lorsque même des modifications mineures risquent de déclencher une étiquette « généré par l’IA », les artistes et les professionnels sont pris au piège entre deux manques de reconnaissance: soit leur paternité humaine est effacée, soit leur travail est rejeté sans motif comme étant synthétique.
Mais l’impact ne s’arrête pas au créateur. Pour le public, la capacité à faire confiance à ce qu’il voit commence à se fissurer. Si l’IA a été impliquée, l’image est-elle encore crédible ? Encore digne de confiance ? Ou est-ce une illusion, quelque chose de plus proche de l’hallucination que du document ?
Plus la frontière s’estompe, plus la crédibilité s’érode, non seulement celle de l’image, mais aussi celle des systèmes qui la présentent. Et au-delà, la société elle-même.
Des rédactions abandonnent des outils auxquels elles ne font plus confiance
Nulle part cette érosion de la clarté n’est plus dangereuse que dans le journalisme. Les rédaction n’abandonnent pas Photoshop à cause de ses fonctionnalités génératives tape-à-l’œil, mais parce qu’elles ne savent plus à quel point l’IA prend le contrôle lors de retouches de routine. Lorsqu’un photographe ou un rédacteur recadre une image ou ajuste l’exposition, il ne peut pas savoir dans quelle mesure le logiciel prend des décisions en son nom, une information qu’Adobe n’a pas encore rendue transparente.
Et l’inquiétude se propage. Dans certaines rédactions, les rédacteurs en chef commencent également à se demander si les photos prises par smartphone peuvent être considérées comme « réelles ». Les téléphones améliorent couramment la peau, remplacent les ciels, fusionnent même plusieurs expositions, échangeant parfois les visages pour une expression plus esthétique, sans aucune commande de l’utilisateur. Ces interventions computationnelles peuvent améliorer l’esthétique, mais elles obscurcissent également la paternité et altèrent subtilement le compte-rendu factuel. Si une image est composée de reconstructions algorithmiques, a-t-elle capturé quelque chose qui s’est réellement passé ? Peut-on encore lui faire confiance en tant que document fidèle de la réalité ? Et si elle est à ce point affectée par l’IA, qui détient le droit d’auteur, si tant est que quelqu’un le détienne ?
Dans le journalisme, la réponse doit être claire. Si la provenance d’une image ne peut être tracée, et si l’équipe éditoriale ne peut pas dire avec confiance ce qui est réel et ce qui est modifié, alors l’image pourrait ne pas être publiable, quel que soit son attrait visuel.
Le droit, toujours à la traîne
Le droit d’auteur, quant à lui, trace une ligne stricte : les œuvres créées par l’IA не sont pas protégées, sauf si un humain peut revendiquer une paternité créative. Mais dans le contenu visuel, la paternité s’est traditionnellement exprimée à travers des dizaines de petits choix intentionnels, dont beaucoup sont maintenant exécutés automatiquement par des logiciels. Ce ne sont plus des décisions prises par le créateur, mais des actions déclenchées par des outils dont l’influence est souvent opaque. Une petite modification peut radicalement altérer le sens. Un ajout mineur peut annuler la protection.
L’étude de Meta reconnaît cette complexité :
« Définir la matérialité est un défi… même des modifications mineures peuvent affecter de manière significative le sens du contenu, selon le contexte. »
Alors que les premières interprétations étaient rigides, des directives récentes du Bureau du droit d’auteur des États-Unis ont introduit plus de nuance. Il reconnaît désormais que les œuvres combinant du contenu humain et généré par l’IA peuvent être éligibles à la protection, mais uniquement pour les parties attribuables à la paternité humaine. Le Bureau exige une divulgation claire de la contribution humaine et refusera la protection aux parties créées uniquement par l’IA.
Mais même ce cadre est difficile à appliquer en pratique. Encore une fois, où tracer la ligne exactement ? Lorsque l’IA est profondément intégrée dans les outils de retouche ou les chaînes de production de contenu, les frontières de la paternité s’estompent. Les créateurs peuvent ne pas savoir où leur contribution se termine et où celle de la machine commence. Tant que les tribunaux et les plateformes ne pourront pas rendre opérationnel ce modèle de paternité partielle, l’application de la loi comme la protection resteront précaires.
Qu’est-ce que cela cache ?

Le vrai problème n’est pas seulement la quantité d’IA utilisée, ni où, c’est ce que cette utilisation dissimule. Au cœur de tout cela se trouve l’intention. L’image est-elle destinée à tromper ou à informer ? À manipuler ou à refléter ?
L’intention d’un artiste est de tromper, mais d’une manière que nous comprenons et acceptons. L’illusion est délibérée, voire célébrée, car elle vise des vérités plus profondes. Nous entrons dans cette relation en connaissance de cause.
Mais les photojournalistes, les scientifiques, les réalisateurs de documentaires, les enseignants et les forces de l’ordre travaillent sous un contrat différent : reproduire la réalité aussi fidèlement que possible. Ici, toute tromperie est une violation de la confiance. Et nous tenons cette fidélité pour acquise, jusqu’à ce qu’elle soit rompue.
La plupart d’entre nous, et la plupart des marques, tombons quelque part entre les deux. Nous ne cherchons pas toujours à tromper, mais nous prenons des libertés avec la réalité. Nous voulons impressionner, persuader et styliser. Et ce faisant, nous brouillons les pistes.
C’est pourquoi il est important de savoir combien de modifications ont été apportées, où et comment, surtout lorsque l’IA est impliquée. Cela donne au public une chance d’interpréter l’intention, de décider d’accorder sa confiance ou de la retenir.
Pourquoi ce problème doit être résolu, maintenant
Plus nous tardons à définir ce qui qualifie un contenu de « généré par l’IA » – quelles sont exactement les limites – plus l’écosystème devient confus. Les plateformes développent des systèmes d’étiquetage sans seuils communs. Les législateurs proposent des règles sans définitions applicables. Les créateurs voient leur travail qualifié de synthétique. Et le public est laissé à lui-même pour décider de ce en quoi il faut avoir confiance, sans frontière clairement définie, chaque plateforme ayant la sienne. Ce qui est étiqueté comme IA à un endroit pourrait ne pas l’être à un autre.
Ce ne sont pas les technologies pour tracer la provenance qui manquent. Le filigrane, les métadonnées et les journaux de modifications s’améliorent rapidement. Mais ils n’ont aucun sens sans un accord sur ce qu’ils sont censés prouver.
Ce qui nous manque, c’est une norme. Une compréhension partagée et applicable de ce qui sépare la paternité humaine de la fabrication par la machine, non seulement pour les tribunaux, mais pour les plateformes, les créateurs et le public.
Le rapport de Meta se termine sur une note révélatrice :
« Nous avons besoin de recherches continues pour améliorer la robustesse… et de définitions de la matérialité fondées sur la recherche, qui soient opérationnalisables à grande échelle et qui reflètent les attentes des utilisateurs et des décideurs politiques. »
Tant que nous n’aurons pas ces définitions, tous les efforts de transparence ne seront que du bruit.
Tous les articles de Paul Melcher concernant l’IA
Site de Michael Hess
Et pour ne rien louper, abonnez vous à 'DREDI notre lettre du vendredi