IA et Pédopornographie : Photographe Arrêté en Gironde

5 min de lecture
0 vues
8 Déc 2025 à 12:49

Un photographe de 64 ans vient d’être écroué après avoir utilisé l’IA pour « déshabiller » numériquement des enfants sur des photos qu’il avait parfois prises lui-même. Des milliers de fichiers découverts… Jusqu’où ira cette technologie ?

Information publiée le 8 décembre 2025 à 12:49. Les événements peuvent avoir évolué depuis la publication.

Vous est-il déjà arrivé de faire une photo innocente d’un enfant lors d’un mariage ou d’une fête de famille et de vous dire, l’espace d’un instant, que cette image pourrait tomber entre de très mauvaises mains ?

Je pose la question parce que, ces derniers jours, une affaire en Gironde vient nous rappeler brutalement que ce cauchemar n’est plus seulement théorique. Un homme de 64 ans, photographe installé dans une petite commune près de Bordeaux, vient d’être mis en examen et écroué pour avoir transformé des milliers de clichés d’enfants en images pornographiques… grâce à l’intelligence artificielle.

Et le pire ? Une partie de ces photos, il les avait prises lui-même dans le cadre de son activité professionnelle.

Quand l’IA devient l’outil parfait du prédateur

On a beaucoup parlé ces dernières années des deepfakes de stars hollywoodiennes ou de politiques. On s’est indignés, on a ri parfois, on a partagé les vidéos truquées. Mais là, on touche le fond.

Ce sexagénaire n’avait pas besoin de filmer quoi que ce soit d’illégal en direct. Il suffisait de prendre des photos tout à fait normales – enfants en maillot de bain à la plage, gamins qui sourient lors d’une communion, portraits classiques en studio – puis de passer ces images dans un logiciel de « nudification » dopé à l’IA. Quelques clics, et l’algorithme « déshabillait » numériquement les sujets avec un réalisme terrifiant.

Le résultat ? Des milliers de fichiers pédopornographiques créés de toutes pièces, mais à partir de vraies personnes. Des enfants qui existent réellement, qui ont posé en toute confiance devant l’objectif d’un « professionnel ».

Comment les enquêteurs sont remontés jusqu’à lui

Tout a commencé par un signalement international. Un de ces tuyaux anonymes qui circulent entre polices du monde entier quand quelqu’un partage du contenu illégal sur des réseaux cryptés.

Les spécialistes de la cyber-gendarmerie ont pris le relais. En recoupant adresses IP, horaires de connexion et métadonnées, ils ont fini par localiser les téléchargements dans un petit studio photo de Pauillac. L’adresse correspondait à un commerce tout ce qu’il y a de plus classique : vitrine propre, site internet avec book de mariages et portraits de famille.

Lors de la perquisition, les militaires sont tombés sur l’équivalent d’une bombe numérique : plusieurs milliers d’images et vidéos modifiées. Certaines montraient clairement que les photos d’origine avaient été prises par le suspect lui-même.

Les outils qui rendent cela possible sont… à portée de tous

Ce qui glace le sang, c’est que les logiciels utilisés ne sont pas des programmes ultra-secrets du dark web. Non. Ce sont des outils de « nudification » qui circulent ouvertement, parfois même sous forme d’applications mobiles ou de sites gratuits.

Le principe est simple et terrifiant : tu upload une photo, tu cliques sur « remove clothes », et l’IA fait le reste. Les versions récentes sont capables de gérer les ombres, les plis de peau, les reflets – tout ce qui rend l’image crédible.

  • Stable Diffusion avec des modèles spécialement entraînés
  • Applications Telegram qui font ça en deux secondes
  • Sites russes ou asiatiques qui proposent le service contre quelques dollars
  • Même certaines versions open-source que n’importe qui peut installer chez soi

Et le plus révoltant ? Certains de ces outils se vantent d’être « 99 % réalistes sur les enfants ». Oui, vous avez bien lu.

Une nouvelle forme de violence sexuelle

On pourrait se dire : « Ce ne sont que des images, personne n’a été touché physiquement. » Grave erreur.

Quand un prédateur prend une photo banale de votre enfant à la sortie de l’école ou lors d’un spectacle et la transforme en contenu pornographique, c’est une agression. L’enfant devient un objet sexuel sans même le savoir. Et ces images peuvent circuler pendant des décennies.

Créer une image sexuelle d’un mineur sans son consentement, c’est déjà une forme de viol numérique.

– Une psychologue spécialisée dans les traumas numériques

Les victimes, quand elles l’apprendront un jour (et certaines le découvriront), porteront ce traumatisme toute leur vie. Imaginez grandir en sachant qu’il existe des milliers de versions pornographiques de vous enfant, quelque part sur Internet…

La loi commence (enfin) à s’adapter

L’homme a été mis en examen pour deux chefs bien précis :

  • Détention et diffusion d’images pédopornographiques
  • Diffusion d’un contenu généré par IA reproduisant l’image d’une personne sans consentement à caractère sexuel

Cette seconde qualification est récente. Elle montre que le législateur commence à prendre la mesure du problème. En France, depuis la loi du 13 mars 2024 contre les violences sexuelles, la création de deepfakes pornographiques est explicitement punie, même si la victime est mineure et que l’image de base était « innocente ».

Mais on reste encore très en retard. La plupart des serveurs qui hébergent ces outils sont à l’étranger. Et fermer un site aujourd’hui, c’est en voir dix réapparaître demain.

Et nous, parents, qu’est-ce qu’on peut faire ?

Je ne vais pas vous ressortir le couplet « ne postez jamais vos enfants sur Internet ». On sait tous que c’est illusoire en 2025.

Mais il y a des gestes simples qui limitent déjà beaucoup les risques :

  • Flouter systématiquement le visage des enfants sur les photos publiques
  • Refuser catégoriquement les séances photo privées avec un inconnu (même « professionnel »)
  • Vérifier les avis Google et les réseaux du photographe avant toute séance
  • Demander à voir et récupérer TOUTES les photos brutes après la séance
  • Signaler immédiatement tout comportement ambigu

Et surtout : parler à nos enfants. Leur expliquer que si un adulte leur demande de poser « juste comme ça », même habillé, ils ont le droit de dire non.

Vers une régulation inévitable de l’IA ?

Cette affaire n’est malheureusement que la partie visible de l’iceberg. Les spécialistes estiment qu’on est au tout début d’une vague de contenus pédopornographiques générés par IA.

Certains pays commencent à bouger. L’Australie vient d’interdire totalement les outils de nudification. L’Union européenne planche sur l’AI Act qui devrait imposer des garde-fous très stricts sur les modèles capables de générer des corps humains.

Mais en attendant, la technologie avance plus vite que la loi. Et des milliers d’enfants continuent de voir leur image détournée chaque jour.

Cette histoire en Gironde, aussi sordide soit-elle, a au moins le mérite de nous réveiller. L’intelligence artificielle n’est pas neutre. Elle amplifie les pires pulsions autant que les meilleures.

Et tant qu’on n’aura pas trouvé le moyen de mettre des barrières éthiques solides dans le code lui-même, des affaires comme celle-ci se multiplieront.

Alors la prochaine fois que vous confierez votre appareil photo – ou votre enfant – à quelqu’un, posez-vous la question : est-ce que j’ai vraiment confiance ?

Parce que dans ce monde-là, la vigilance n’est plus une option. C’est une obligation.

Un mot vrai pèse son poids dans l'existence.
— Simone de Beauvoir
Auteur

Patrick Bastos couvre avec passion l'actualité quotidienne et les faits divers pour vous tenir informés des événements qui marquent notre société. Contactez-nous pour une publication sponsorisée ou autre collaboration.

Articles Similaires