Si vous posez aujourd’hui une question sur une destination à un moteur de recherche, vous obtiendrez une réponse en quelques secondes. Mais d’où proviennent les informations ? Qui a fait des recherches, pris des photos, recueilli des impressions sur place ? Cela reste dans l’ombre. La réponse se nourrit de textes et d’images. Créés à un moment donné. Quelque part. Par quelqu’un. Ce n’importe qui est systématiquement évincé du système.
Le cas de Plasselb : une expérience lourde de conséquences
Pour montrer comment l’IA aliène, j’ai tenté une expérience. J’ai choisi comme objet de test l’une de mes photos les plus authentiques : quatre hommes âgés en costume traditionnel de berger suisse, pris à Plasselb avec un Canon EOS D1. Cette image symbolise la patrie, la tradition et la photographie artisanale.

J’ai demandé à une IA moderne appelée Nano Banana d’intégrer la photo dans une infographie. Le résultat a été décevant. L’IA n’a pas placé l’original, mais l’a ‘repeint’. Le panneau de la localité “Plasselb” est devenu “Trésor des Alpes”, le sachet de tabac d’un homme un bloc de fromage suisse. L’IA a reconnu la Suisse, le costume traditionnel, les barbes – et a inventé le panneau de la ville et le fromage.
![Bild einer echten Quelle wird als Datenstrom zu einem Trainingsdatenset [KI-generiert (gemini)]](https://mlbrir8kaysj.i.optimole.com/cb:Fkpm.97f/w:auto/h:auto/q:mauto/f:best/https://tellerrandstories.de/wp-content/uploads/2026/02/plasselbScanner.jpg)
![Original wird von der KI in seine Bestandteile zerlegt. Elemente aus dem Foto (Tracht, Bärte, Pfeifen, Ortsschild) sind nur noch abstrakte Konzepte, die in einem digitalen Netzwerk schweben [KI-generiert (gemini)]](https://mlbrir8kaysj.i.optimole.com/cb:Fkpm.97f/w:auto/h:auto/q:mauto/f:best/https://tellerrandstories.de/wp-content/uploads/2026/02/plasselbAnalyse.jpg)
Quand la précision est considérée comme une contrefaçon
Un cercle paradoxal se met en place : les systèmes d’IA s’entraînent avec du contenu existant, qui date d’une époque où les médias avaient encore des correspondants sur place. Mais que se passe-t-il lorsque ces sources se tarissent ?
Au fil des générations de modèles d’IA, les origines disparaissent. Une photo est fragmentée, les fragments sont intégrés dans l’entraînement du modèle suivant, qui génère à partir de là de nouvelles images aliénées. Le lien avec la recherche initiale est rompu. Au final, les modèles génèrent des copies numériques qui n’ont plus rien à voir avec la réalité : Démence artificielle.
Le paradoxe de la perfection : le piège des ‘faux positifs’.
Mon expérience a révélé un problème technique qui devrait alerter les photographes. Le système SynthID de Google a marqué ma photo authentique comme ‘générée par l’IA’ – avec toutes les conséquences désagréables que cela implique pour moi. La raison : pour faire ressortir parfaitement les hommes en costume traditionnel, je les avais traités de manière sélective sur ma photo avec Lightroom. Cette précision a généré des modèles statistiques que l’algorithme a jugés ‘non naturels’. Le constat est amer : plus un photographe travaille de manière professionnelle, plus les systèmes automatisés ont tendance à le cataloguer comme un faussaire. Un label technique ne prouve pas la vérité – ce n’est souvent qu’un signal aveugle.
Contexte technique : le cross-check de provenance
Dans mon rapport au programme de vulnérabilité AI de Google (Issue 483464959), j’ai proposé une solution : L’intégration de la détection SynthID avec les manifestes de provenance C2PA (Content Credentials).
Le problème : SynthID interprète les anomalies statistiques des pixels par un masquage professionnel comme des artefacts d’IA générative – indépendamment du fait que l’image porte un certificat C2PA vérifié avec un historique de traitement documenté.
La solution : une comparaison entre le signal de détection et le manifeste de provenance. Si C2PA documente : “Masquage local dans Lightroom Classic v15.1.1, source Canon RAW”, le système ne devrait pas mal interpréter ce traitement manuel comme une génération d’IA.
Le refus : la réponse de Google : “Won’t Fix (Intended Behavior)”. La classification erronée d’œuvres authentiques n’est pas considérée comme un risque de sécurité, mais comme un comportement accepté du système.
Conséquence : deux vérités concurrentes – Adobe dit “Human”, Google dit “AI”. L’utilisateur est perdu entre les deux. La confiance dans les garanties d’origine numériques s’érode.
L’érosion économique et institutionnelle
Depuis 25 ans, les moteurs de recherche et les agrégateurs se servent du contenu des médias établis. Alors que ce contenu entraîne les systèmes d’IA, les auteurs ne reçoivent rien. Pour de nombreux journalistes de voyage, cela signifie la fin.
Même les institutions censées préserver le savoir perdent pied. Wikipedia documente la mort des médias établis, mais les magazines en ligne comme Tellerrandstories passent à la trappe malgré l’ISSN et l’archivage dans les bibliothèques nationales. Qui documentera à l’avenir qui fait encore des recherches originales, si les critères de pertinence sont liés à une ère médiatique révolue ?
![Medium oder Website? Bei Wikipedia gehören Online-Magazine und Preisvergleichsportale in dieselbe Kategorie und der Traffic bestimmt die Relevanz [KI-generiert (gemini)]](https://mlbrir8kaysj.i.optimole.com/cb:Fkpm.97f/w:auto/h:auto/q:mauto/f:best/https://tellerrandstories.de/wp-content/uploads/2026/02/wikiRelevanz.jpg)
L’authenticité comme modèle commercial
Il existe des échappatoires. Le modèle de Tellerrandstories repose sur l’indépendance financière : nous publions gratuitement une partie de nos recherches et recevons des honoraires d’autres médias. Mes photos sont sous licence de l’agence photographique Alamy. Celle-ci s’engage également pour le droit voisin et l’identification des sources. La transparence n’est pas un luxe, mais une question de survie pour la crédibilité.
Que reste-t-il à faire ? Un manifeste pour la transparence
Nous avons besoin de nouvelles formes d’étiquetage – non pas comme un label de qualité, mais comme une preuve de production. Tout comme les certificats d’origine sont courants pour les produits alimentaires, les informations ont besoin d’une “notice” numérique.
- Couplage de la détection et de la provenance: les systèmes comme SynthID doivent être alignés sur les sceaux cryptographiques comme le C2PA (Content Credentials). Seule la preuve des étapes de traitement protège les auteurs.
- Responsabilité des plateformes: Google, Meta et autres doivent également protéger et rémunérer activement les sources qu’ils utilisent.
- Faire preuve d’attitude: Les journalistes doivent dévoiler leur méthodologie. “J’étais sur place. J’ai pris cette photo. J’en réponds avec mon nom. “
Epilogue : Le mur de code – Quand l’erreur a une méthode
Après ma découverte, j’ai cherché le dialogue. J’ai signalé le problème (Issue 483464959) au Google AI Vulnerability Program et j’ai fourni une proposition de solution pour le couplage avec les données C2PA.
La réponse a été rapide, automatisée et décevante : “Won’t Fix (Intended Behavior)”. La réponse est arrivée une minute après la soumission. Une minute pour examiner un rapport technique de plusieurs pages avec une chaîne de preuves ? C’est peu probable. La réponse porte tous les signes du triage automatisé : formulations standard, renvois à des catégories non pertinentes (Safety Bypasses, Hallucinated Sandbox Escapes), aucun examen du contenu réel.
Mon rapport n’a pas été rejeté parce qu’il était faux. Elle a été rejetée parce qu’elle est trop fréquente. “This is one of the most common issues reported”, écrit le système. En d’autres termes, de nombreux photographes et journalistes ont découvert le même problème. Mais au lieu d’y remédier, Google trie systématiquement ces signalements.
Ce n’est plus un bug – c’est de la politique.
Le fait qu’une œuvre authentique soit stigmatisée comme un produit d’IA n’est pas une erreur pour le géant de la tech, mais un ‘comportement connu’. Dans la logique de la Silicon Valley, l’étiquetage erroné n’est pas un risque de sécurité, mais un bruit accepté dans le système.
Pour les journalistes et les photographes, cela signifie une perte de paternité. Si l’algorithme se trompe, l’homme n’a pas le droit de s’y opposer. La technique définit la vérité, et celui qui passe à travers les mailles du filet n’a pas de chance.
Plus les machines ‘protègent’ la réalité, plus nous perdons facilement l’homme de vue. Mais c’est justement pour cette raison qu’il est aujourd’hui plus important que jamais d’insister sur sa propre paternité. Un ‘Won’t Fix’ ne doit pas être le dernier mot sur notre travail.
![Am Ende ist das Bild verschwunden. Nur noch die Information über das visuelle Original bleibterhalten. Völlig egal ist die schöpferische Leistung des Fotografen [KI-generiert (gemini)]](https://mlbrir8kaysj.i.optimole.com/cb:Fkpm.97f/w:auto/h:auto/q:mauto/f:best/https://tellerrandstories.de/wp-content/uploads/2026/02/fileNotFound.jpg)