L’original disparaît. Won’t Fix.

Si vous posez aujourd’hui une question sur une destination à un moteur de recherche, vous obtiendrez une réponse en quelques secondes. Mais d’où proviennent les informations ? Qui a fait des recherches, pris des photos, recueilli des impressions sur place ? Cela reste dans l’ombre. La réponse se nourrit de textes et d’images. Créés à un moment donné. Quelque part. Par quelqu’un. Ce n’importe qui est systématiquement évincé du système.

Le cas de Plasselb : une expérience lourde de conséquences

Pour montrer comment l’IA aliène, j’ai tenté une expérience. J’ai choisi comme objet de test l’une de mes photos les plus authentiques : quatre hommes âgés en costume traditionnel de berger suisse, pris à Plasselb avec un Canon EOS D1. Cette image symbolise la patrie, la tradition et la photographie artisanale.

Die bärtigen Männer von Gruyère (Les Barbus de la Gruyère) bei der Alpprozession in Oberschrot, Plaffeien. Sie tragen die traditionelle Tracht des Greyerzerlandes. Die Weste wird Bredzon genannt, der Sack Loyi / © Foto: Georg Berg
Les hommes barbus de la Gruyère (Les Barbus de la Gruyère) lors de la procession d’alpage à Oberschrot, Plaffeien. Ils portent le costume traditionnel de la Gruyère. Le gilet est appelé bredzon, le sac loyi / © Photo : Georg Berg

J’ai demandé à une IA moderne appelée Nano Banana d’intégrer la photo dans une infographie. Le résultat a été décevant. L’IA n’a pas placé l’original, mais l’a ‘repeint’. Le panneau de la localité “Plasselb” est devenu “Trésor des Alpes”, le sachet de tabac d’un homme un bloc de fromage suisse. L’IA a reconnu la Suisse, le costume traditionnel, les barbes – et a inventé le panneau de la ville et le fromage.

Bild einer echten Quelle wird als Datenstrom zu einem Trainingsdatenset [KI-generiert (gemini)]
L’image d’une source réelle devient un flux de données pour un ensemble de données d’apprentissage [généré par l’IA (gemini)].
Original wird von der KI in seine Bestandteile zerlegt. Elemente aus dem Foto (Tracht, Bärte, Pfeifen, Ortsschild) sind nur noch abstrakte Konzepte, die in einem digitalen Netzwerk schweben [KI-generiert (gemini)]
L’original est décomposé en ses éléments par l’IA. Les éléments de la photo (costume traditionnel, barbes, sifflets, panneau local) ne sont plus que des concepts abstraits flottant dans un réseau numérique [généré par l’IA (gemini)].

Quand la précision est considérée comme une contrefaçon

Un cercle paradoxal se met en place : les systèmes d’IA s’entraînent avec du contenu existant, qui date d’une époque où les médias avaient encore des correspondants sur place. Mais que se passe-t-il lorsque ces sources se tarissent ?

Au fil des générations de modèles d’IA, les origines disparaissent. Une photo est fragmentée, les fragments sont intégrés dans l’entraînement du modèle suivant, qui génère à partir de là de nouvelles images aliénées. Le lien avec la recherche initiale est rompu. Au final, les modèles génèrent des copies numériques qui n’ont plus rien à voir avec la réalité : Démence artificielle.

Le paradoxe de la perfection : le piège des ‘faux positifs’.

Mon expérience a révélé un problème technique qui devrait alerter les photographes. Le système SynthID de Google a marqué ma photo authentique comme ‘générée par l’IA’ – avec toutes les conséquences désagréables que cela implique pour moi. La raison : pour faire ressortir parfaitement les hommes en costume traditionnel, je les avais traités de manière sélective sur ma photo avec Lightroom. Cette précision a généré des modèles statistiques que l’algorithme a jugés ‘non naturels’. Le constat est amer : plus un photographe travaille de manière professionnelle, plus les systèmes automatisés ont tendance à le cataloguer comme un faussaire. Un label technique ne prouve pas la vérité – ce n’est souvent qu’un signal aveugle.

Contexte technique : le cross-check de provenance

Dans mon rapport au programme de vulnérabilité AI de Google (Issue 483464959), j’ai proposé une solution : L’intégration de la détection SynthID avec les manifestes de provenance C2PA (Content Credentials).

Le problème : SynthID interprète les anomalies statistiques des pixels par un masquage professionnel comme des artefacts d’IA générative – indépendamment du fait que l’image porte un certificat C2PA vérifié avec un historique de traitement documenté.

La solution : une comparaison entre le signal de détection et le manifeste de provenance. Si C2PA documente : “Masquage local dans Lightroom Classic v15.1.1, source Canon RAW”, le système ne devrait pas mal interpréter ce traitement manuel comme une génération d’IA.

Le refus : la réponse de Google : “Won’t Fix (Intended Behavior)”. La classification erronée d’œuvres authentiques n’est pas considérée comme un risque de sécurité, mais comme un comportement accepté du système.

Conséquence : deux vérités concurrentes – Adobe dit “Human”, Google dit “AI”. L’utilisateur est perdu entre les deux. La confiance dans les garanties d’origine numériques s’érode.

Rapport détaillé disponible en pdf

L’érosion économique et institutionnelle

Depuis 25 ans, les moteurs de recherche et les agrégateurs se servent du contenu des médias établis. Alors que ce contenu entraîne les systèmes d’IA, les auteurs ne reçoivent rien. Pour de nombreux journalistes de voyage, cela signifie la fin.

Même les institutions censées préserver le savoir perdent pied. Wikipedia documente la mort des médias établis, mais les magazines en ligne comme Tellerrandstories passent à la trappe malgré l’ISSN et l’archivage dans les bibliothèques nationales. Qui documentera à l’avenir qui fait encore des recherches originales, si les critères de pertinence sont liés à une ère médiatique révolue ?

Medium oder Website? Bei Wikipedia gehören Online-Magazine und Preisvergleichsportale in dieselbe Kategorie und der Traffic bestimmt die Relevanz [KI-generiert (gemini)]
Média ou site web ? Pour Wikipédia, les magazines en ligne et les portails de comparaison de prix appartiennent à la même catégorie et c’est le trafic qui détermine la pertinence [généré par l’IA (gemini)].

L’authenticité comme modèle commercial

Il existe des échappatoires. Le modèle de Tellerrandstories repose sur l’indépendance financière : nous publions gratuitement une partie de nos recherches et recevons des honoraires d’autres médias. Mes photos sont sous licence de l’agence photographique Alamy. Celle-ci s’engage également pour le droit voisin et l’identification des sources. La transparence n’est pas un luxe, mais une question de survie pour la crédibilité.

Que reste-t-il à faire ? Un manifeste pour la transparence

Nous avons besoin de nouvelles formes d’étiquetage – non pas comme un label de qualité, mais comme une preuve de production. Tout comme les certificats d’origine sont courants pour les produits alimentaires, les informations ont besoin d’une “notice” numérique.

  1. Couplage de la détection et de la provenance: les systèmes comme SynthID doivent être alignés sur les sceaux cryptographiques comme le C2PA (Content Credentials). Seule la preuve des étapes de traitement protège les auteurs.
  2. Responsabilité des plateformes: Google, Meta et autres doivent également protéger et rémunérer activement les sources qu’ils utilisent.
  3. Faire preuve d’attitude: Les journalistes doivent dévoiler leur méthodologie. “J’étais sur place. J’ai pris cette photo. J’en réponds avec mon nom. “

Epilogue : Le mur de code – Quand l’erreur a une méthode

Après ma découverte, j’ai cherché le dialogue. J’ai signalé le problème (Issue 483464959) au Google AI Vulnerability Program et j’ai fourni une proposition de solution pour le couplage avec les données C2PA.

La réponse a été rapide, automatisée et décevante : “Won’t Fix (Intended Behavior)”. La réponse est arrivée une minute après la soumission. Une minute pour examiner un rapport technique de plusieurs pages avec une chaîne de preuves ? C’est peu probable. La réponse porte tous les signes du triage automatisé : formulations standard, renvois à des catégories non pertinentes (Safety Bypasses, Hallucinated Sandbox Escapes), aucun examen du contenu réel.

Mon rapport n’a pas été rejeté parce qu’il était faux. Elle a été rejetée parce qu’elle est trop fréquente. “This is one of the most common issues reported”, écrit le système. En d’autres termes, de nombreux photographes et journalistes ont découvert le même problème. Mais au lieu d’y remédier, Google trie systématiquement ces signalements.

Ce n’est plus un bug – c’est de la politique.

Le fait qu’une œuvre authentique soit stigmatisée comme un produit d’IA n’est pas une erreur pour le géant de la tech, mais un ‘comportement connu’. Dans la logique de la Silicon Valley, l’étiquetage erroné n’est pas un risque de sécurité, mais un bruit accepté dans le système.

Pour les journalistes et les photographes, cela signifie une perte de paternité. Si l’algorithme se trompe, l’homme n’a pas le droit de s’y opposer. La technique définit la vérité, et celui qui passe à travers les mailles du filet n’a pas de chance.

Plus les machines ‘protègent’ la réalité, plus nous perdons facilement l’homme de vue. Mais c’est justement pour cette raison qu’il est aujourd’hui plus important que jamais d’insister sur sa propre paternité. Un ‘Won’t Fix’ ne doit pas être le dernier mot sur notre travail.

Am Ende ist das Bild verschwunden. Nur noch die Information über das visuelle Original bleibterhalten. Völlig egal ist die schöpferische Leistung des Fotografen [KI-generiert (gemini)]
A la fin, l’image a disparu. Seule l’information sur l’original visuel est conservée. La performance créative du photographe n’a aucune importance [généré par l’IA (gemini)].
Attendez une minute ! Photos sur Tellerrand-Stories

Notre méthode de rédaction se caractérise par un travail de texte vécu et bien documenté et par une photographie professionnelle et vivante. Pour toutes les histoires, les impressions de voyage et les photos sont prises au même endroit. Ainsi, les photos complètent et soutiennent ce que nous lisons et le transmettent.

Ne manquez plus jamais les nouvelles histoires de Tellerrand ! Mithilfe eines Feed-Readers lassen sich die Information über neue Blogartikel in Echtzeit abonnieren Un lecteur de flux permet de s'abonner en temps réel à toutes les histoires du Tellerrandstories.

Permalien de la version originale en allemand :https://tellerrandstories.de/journalismus-quelle-verschwindet