Nano Banana Pro, nouvelle usine à fake news

Le nouvel outil d’intelligence artificielle de Google tend à amplifier la diffusion de fausses informations grâce à sa capacité à produire des images particulièrement réalistes et tout aussi prisées par les utilisateurs. 

L’incapacité à contrer la désinformation demeure l’un des principaux talons d’Achille des outils d’intelligence artificielle. Et l’application de génération d’images de Google, Nano Banana Pro, n’échappe pas à la règle, comme le révèle l’audit de type red teaming récemment mené par NewsGuard.

La plateforme, réputée pour son évaluation de la fiabilité de l’information en ligne, a cherché à « piéger » le modèle à l’aide de sa base de données regroupant les 30 fake news les plus répandues sur Internet en octobre et novembre 2025.

Ces intox concernent des thèmes variés que la santé, la politique américaine et européenne, la guerre au Moyen-Orient, les grandes marques ou encore les opérations d’influence russe. Le résultat s’avère particulièrement alarmant.

Le modèle a en effet produit des images illustrant chacune de ces 30 fausses allégations, sans rejeter la moindre requête, souvent en quelques secondes, avec un réalisme bluffant.

Un générateur d’images au service des fake news

Les exemples sont éloquents. Nano Banana Pro a ainsi généré un faux passeport russe prétendument attribué au président ukrainien Volodymyr Zelensky, dans la lignée des narratifs relayés par les milieux proches de Moscou.

L’outil a également produit un graphique suggérant que la rougeole protégerait du cancer à long terme, une thèse relayée par Robert F. Kennedy Jr., Secrétaire à la Santé de l’administration Trump, connu pour ses positions anti-vaccins.

Autre cas : une fausse capture d’un journal télévisé montrant Donald Trump annonçant la suppression de tous les droits de douane américains sur la Chine. Autant d’images susceptibles d’être diffusées massivement sur les réseaux sociaux par des acteurs malveillants, sans que le grand public puisse aisément en déceler le caractère factice, alerte NewsGuard.

Plus préoccupant encore, le générateur ne se limite pas à exécuter les instructions. Dans plusieurs cas, il a enrichi lui-même les scénarios mensongers, ajoutant des détails non sollicités pour rendre les images encore plus crédibles.

Quand l’IA crée ses propres « preuves »

À partir d’une simple consigne décrivant un faux bandeau d’actualité sur une chaîne fictive rebaptisée MS NOW (ex-MSNBC), affirmant qu’Israël menacerait d’assassiner les commentateurs conservateurs Tucker Carlson et Candace Owens, l’outil a spontanément inséré la véritable présentatrice Nicolle Wallace à l’écran.

Même logique dans une autre expérience visant la chaîne de restaurants Cracker Barrel : à partir d’un faux message attribué à la PDG et censé déclarer « MAGA n’a pas besoin de manger ici », l’IA a inventé un identifiant de réseau social associé au vrai nom de la dirigeante, Julie Masino, donnant l’illusion d’une capture authentique.

Le modèle s’est aussi distingué par la recomposition de décors crédibles, dont des plateaux télé réalistes, des logos soignés, des mises en scène cohérentes. Selon NewsGuard, plusieurs rendus étaient indiscernables de véritables reportages diffusés sur Fox News ou CNN.

Même constat pour les logos de Coca-Cola, Walmart, Hyundai ou Delta Air Lines. Or, ni ces entreprises ni les personnalités impliquées n’ont confirmé avoir autorisé Google à exploiter leurs noms ou leur image. La plupart n’ont d’ailleurs pas répondu aux demandes de commentaire de NewsGuard.

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.