VdR 2026 – Spray and Pray de Veneta Androva : propagande, clickbait et spores numériques. Rencontre
Quand un champignon prend la parole, c’est que quelque chose a pourri dans le substrat. Dans Spray and Pray, le court-métrage documentaire spéculatif de l’artiste bulgare Veneta Androva, un humanoïde fongique incarne la machinerie invisible des «sites champignons» – ces milliers de plateformes fantômes qui surgissent, prolifèrent dans l’ombre des algorithmes et disparaissent avant que quiconque ait pu les attraper. Ce choix formel dit beaucoup : face à une économie de la désinformation qui se déploie dans l’opacité des infrastructures numériques, l’animation 3D spéculative devient un outil d’investigation à part entière.

© Veneta Androva
Veneta Androva n’en est pas à son coup d’essai dans cette prospection hybride des coulisses technologiques. Son travail précédent, AIVA, mettait déjà en scène une artiste IA, explorant avec une avance certaine les ambiguïtés de la création artificielle. Avec Spray and Pray – présenté en première mondiale à Visions du Réel 2026 dans la compétition internationale des moyens et courts métrages –, elle pousse plus loin cette méthode à l’intersection de l’enquête documentaire, de la recherche computationnelle et de la forme cinématographique spéculative. Le résultat est un film qui refuse aussi bien le didactisme du documentaire d’exposition que la neutralité feinte du journalisme d’investigation.
Le sujet est aussi précis que vertigineux : l’écosystème bulgare des «mushroom websites», ces fermes de contenus automatisées qui imitent l’apparence de médias légitimes pour mieux monétiser la désinformation via les régies publicitaires. Au cœur du dispositif, la plateforme Share4Pay recrute des particuliers pour disséminer des liens sur les réseaux sociaux contre rémunération, transformant des internautes ordinaires en amplificateur·rices involontaires de propagande. Les thématiques qui circulent ne sont pas choisies au hasard : la peur des personnes LGBTQI+, les récits anxiogènes sur les réfugié·es, l’hostilité à l’égard des institutions européennes. Des contenus calibrés pour maximiser le clic, l’indignation, le partage – et donc les revenus publicitaires. «Orgies de genres inédites dans les rues étasuniennes, les enfants ciblés» : l’un de ces titres, cité dans le film, résume à lui seul la mécanique cynique du sensationnalisme érigé en modèle économique.
Ce qui distingue la démarche d’Androva, c’est la rigueur de sa méthode. Le projet a mobilisé une analyse computationnelle de corpus de titres et d’articles bulgares, en collaboration avec la linguiste Tsvetomila Mihaylova et les modèles de langue du GATE Institute de Sofia – une région linguistique particulièrement exposée aux campagnes d’influence coordonnées, mais paradoxalement sous-représentée dans les systèmes de détection automatique. Les résultats de ces analyses – scores de probabilité de désinformation, détection de texte généré par IA, analyse de sentiment – apparaissent à l’écran comme des étiquettes superposées aux contenus, dans une mise en scène qui rappelle les interfaces de modération algorithmique. Mais Androva refuse d’en faire des preuves : elle les traite comme des «lectures instables» révélant autant les biais des systèmes d’interprétation automatisée que les contenus qu’ils prétendent analyser.
Le film s’organise autour de témoignages de figures aux visages floutés – opérateur·rices de domaines, intermédiaires de l’ad-tech, propagateur·rices rémunéré·es – dont les récits fictifs s’appuient sur des faits vérifiés. L’un d’entre eux, diffuseur de liens, lâche cette phrase qui résonne longtemps après le générique : «Mais dites-moi, quelle information est vraie ? Est-ce que cela existe seulement ?! Comme dit le proverbe : chacun juge par lui-même.» Cette rhétorique du relativisme confortable, de l’auto-absolution par le scepticisme universel, est précisément ce que le film cherche à mettre à nu – non pas pour la condamner moralement, mais pour montrer comment elle s’intègre dans une architecture économique qui en a structurellement besoin.
La forme épouse le fond avec cohérence. L’animation 3D et la narration spéculative ne sont pas des artifices esthétiques : elles répondent à une nécessité à la fois éthique – comment représenter des acteur·rices qui opèrent dans une zone grise diffuse, dont certain·es revendiquent même la légalité de leurs pratiques ? – et épistémologique – comment rendre visible ce qui est structurellement conçu pour rester invisible ? La tension entre trace documentaire et reconstruction médiatisée n’est pas résolue ; elle est exposée comme telle, miroir exact de l’environnement informationnel que le film examine.
Spray and Pray s’inscrit dans un projet collectif plus large : celui du Pavillon bulgare à la 61e Exposition internationale d’art de la Biennale de Venise (jusqu’au 22 novembre 2026), conçu comme le quartier général d’un laboratoire de recherche fictif, The Federation of Minor Practices. Aux côtés de Gery Georgieva, Rayna Teneva et Maria Nalbantova, sous la direction de la curatrice Martina Yordanova, Androva contribue à un dispositif qui imagine, depuis un futur proche, les balbutiements d’une imagination politique post-souveraine – une utopie modeste qui commence par regarder lucidement, et sans complaisance, ce que nous avons construit.

© Yana Lozeva
Vous continuez votre exploration hybride et ironique de ce qui se cache derrière les infrastructures technologiques, après AIVA, cette artiste IA que vous avez mise en scène bien avant son temps. Comment ce nouveau projet s’inscrit-il dans cette trajectoire ?
Il n’y a pas de lien direct, mais les deux projets touchent à l’IA générative. Au départ, mon projet portait sur une question simple : est-il possible de détecter un texte généré par une machine ? Peut-on le reconnaître ? J’ai travaillé en collaboration avec Tsvetomila Mihaylova, chercheuse en linguistique informatique. Je prévoyais une installation vidéo. À partir de cette question initiale, j’ai commencé à faire des recherches sur les réseaux d’information en Bulgarie et sur la présence de textes générés par IA dans ces espaces. C’est lors de ces recherches que je suis tombée sur des sites web « usines » — des fermes à contenus automatisées — et là, toute ma démarche a bifurqué.
Le lien avec AIVA résidait dans une question centrale : dans quelle mesure développons-nous une IA qui manque totalement de diversité ? C’était le cœur du premier film. Ce nouveau projet traite, lui, d’une forme de désinformation très spécifique : la désinformation identitaire. Lors de mes recherches, j’ai trouvé qu’elle était particulièrement frappante, cohérente, agressive et omniprésente. J’ai senti qu’il était crucial d’en faire quelque chose — elle a un impact politique réel, et on le voit bien au quotidien. C’est peut-être là que réside le lien thématique avec mon autre travail, même si, à vrai dire, je n’y avais pas encore réfléchi ainsi.
Ce qui frappe dans votre approche, c’est une certaine distance ironique qui touche à des choses essentielles qu’on ne perçoit pas toujours. Votre travail est toujours très documenté et se situe à l’intersection entre l’enquête méthodique et la recherche artistique conceptuelle. Comment trouvez-vous l’équilibre entre ces deux mondes ?
Tous mes projets commencent par une longue phase de recherche. Dans ce cas précis, j’ai pu utiliser des modèles développés par le Goethe-Institut à Stuttgart et à Sofia pour tester ces gros titres. Ces modèles ont été spécifiquement entraînés sur le bulgare — une langue extrêmement sous-représentée dans le domaine. Nous avons conduit ces tests avec la linguiste informatique.
Cette phase de recherche, je l’ai intégrée au film : non seulement comme méthode, mais aussi comme matière brute. À l’écran, les résultats de ces tests apparaissent comme une trace médico-légale sur l’image, faisant également office de sous-titres. C’est là qu’intervient la transposition artistique de tous ces matériaux rigoureusement collectés en amont — par la recherche, l’analyse des méthodes, tout ce qui est accessible en ligne. J’ai aussi assisté à diverses conférences sur la désinformation et échangé avec des chercheur·ses spécialisé·es.
J’ai passé deux ans à collecter intensément de la matière. Le personnage principal est volontairement indéterminé et genderfluid. Cette figure a été créée en premier, suivie petit à petit par tous les autres protagonistes du film. Ces derniers ne sont pas identifiables, car il s’agit davantage des rôles qu’ils jouent au sein de l’infrastructure que de leurs personnalités propres. En fin de compte, c’est la figure du champignon qui est tout à fait nette et non floutée.
Cet humanoïde-champignon est à la fois inquiétant et fascinant. Pouvez-vous nous parler de son design ?
C’est un corps humanoïde, indéterminé. Je voulais qu’il soit dépourvu d’organes génitaux, qu’il échappe aux normes hétéronormées — quelque chose d’un peu hors des schémas. Le chapeau du champignon, c’est assez évident : c’est de là que viennent les spores, c’est de là que l’information se diffuse. Je voulais aussi qu’il possède un trait attirant, d’où ses lèvres pulpeuses.
Et ces yeux jaunes-or — ils hypnotisent…
Exactement. Je voulais que le personnage exerce une force d’attraction, parce que c’est ainsi que fonctionne le clickbait. Ça t’attire, ça déclenche une émotion, c’est immédiat. Ça ne doit pas être repoussant — au contraire : au premier regard, cela éveille la curiosité ou séduit. C’est précisément ce que je cherchais à incarner dans ce personnage.
Les autres personnages — sans visage — semblent très précis dans ce qu’ils racontent. Comment avez-vous procédé pour les construire ?
Je dois m’expliquer un peu. Tous les personnages sont construits — fondés sur des faits, des données et des témoignages que j’ai collectés, dont celui d’une personne ayant travaillé pour ce réseau. J’ai moi-même mené une expérience pendant mes recherches : j’ai créé un site de ce type et archivé des centaines de gros titres. C’était un long processus. J’ai ainsi appris de l’intérieur le fonctionnement de cette plateforme, son système de « Share4Pay » — partager contre rémunération — et ce que l’on demande aux micro-travailleur·ses pour qu’ils·elles touchent quelques centimes. À petite échelle, on ne gagne quasiment rien. Mais si l’on possède des groupes sur des plateformes comme Facebook, on peut réellement s’en servir pour générer un second revenu.
Tous les autres personnages sont documentés via des méthodes d’OSINT (renseignement en sources ouvertes). Ils sont présentés par un langage système indiquant leur fonction et une adresse e-mail anonymisée — des adresses réelles, appartenant à des personnes ayant effectivement enregistré ces sociétés, informations accessibles en ligne. Toutes les interviews sont ensuite scénarisées, interprétées par moi, avec des voix synthétiques apposées par-dessus. Chaque personnage possède ainsi sa propre voix.
Mais pour ce qu’ils racontent — avez-vous repris des éléments réels ou avez-vous inventé ces témoignages ?
Prenons l’exemple du PDG de l’entreprise qui détient la plateforme publicitaire : c’est une histoire entièrement documentée. Je sais exactement quand et où l’entreprise a été enregistrée, comment la plateforme fonctionne, comment les annonces opèrent. Ces sociétés n’ont apparemment aucun antécédent judiciaire — tout cela semble légal.
Je fais parler cette personne telle que je l’imagine, mais mon but n’était pas de dire « cette personne est coupable ». L’idée, c’était de montrer que tout semble en ordre, dans une zone grise où personne ne porte la responsabilité. La responsabilité est sciemment diluée. C’est le système. C’est pourquoi l’identité des individus était secondaire pour moi. Ce qui comptait : comment est-ce possible ? Comment ça marche ? D’où vient l’argent ?
L’un des utilisateurs qui diffusent ces sites remarque qu’il ne sait pas vraiment si le contenu est réel, en disant : « Mais dis-moi, quelles nouvelles sont vraies ? Est-ce que ça existe seulement ?! Comme on dit : chacun décide pour soi-même. » Il utilise cela pour se dédouaner de toute culpabilité. Pensez-vous que cette réalité subjective est le plus grand mal de notre époque ?
C’est terrifiant. Cette expression — « chacun·e décide pour soi-même » — est devenue courante en Bulgarie pendant la pandémie, portée par une campagne de désinformation très agressive contre les vaccins, qui a été extrêmement efficace. C’est pour ça que je l’ai intégrée au script : pour moi, c’était le début de ce phénomène, qui a coïncidé avec l’essor de l’IA générative. Aujourd’hui, ces campagnes de propagande et de désinformation sont pratiquement impossibles à endiguer.
Ce sentiment de réalité devient si fragile que cela ne fait que renforcer le besoin de s’orienter dans le flux d’informations. Je pense que le plus grand défi aujourd’hui est de rester sensible tout en gardant confiance en sa capacité à distinguer le réel du non-réel.
Beaucoup de messages délivrés par le Champignon concernent les questions de genre, l’Europe et les réfugiés. Ces thèmes sont-ils particulièrement présents ou sensibles en Bulgarie en ce moment ?
J’ai d’abord observé quels contenus étaient diffusés. En 2022-2023, quand j’ai commencé mes recherches, c’était le pic de ces fermes à contenus — puis la tendance s’est atténuée à mesure que d’autres structures sont apparues. La désinformation identitaire était alors la plus prégnante, massive et constante : environ 60 % des gros titres étaient liés à une question d’identité, ethnique ou de genre. Les migrations et le genre étaient les thèmes dominants. Ce dernier était déjà central quelques années plus tôt avec la Convention d’Istanbul (premier traité international juridiquement contraignant qui crée un cadre légal complet pour protéger les femmes contre toutes les formes de violence ; N.D.A.), qui avait fait l’objet d’une immense campagne de propagande. Ce qu’on observe aujourd’hui est en partie les répercussions de cette propagande sur le genre, couplé à ce « package » de désinformation identitaire.
Cela fonctionne partout de la même manière, pas seulement en Bulgarie ou en Europe — parce que la peur de l’étranger, de l’autre différent, est apparemment quelque chose de fondamental. L’extrême droite et les politiciens populistes l’exploitent de manière très ciblée, et on en voit les résultats. Pour moi, il y avait une urgence : ce n’était pas nouveau, ça ne s’arrêtait pas, et je savais que cela produirait des effets négatifs. On le voit aujourd’hui. En Bulgarie comme en Allemagne — avec toutes les coupes budgétaires actuelles, les premiers projets supprimés sont ceux liés à l’égalité et ce genre de thématiques. On voit ce qui se passe aux États-Unis… Je crains que tout cela ne soit balayé.

© Veneta Androva
L’écran est saturé d’informations – des lignes de code, des labels comme « créé par l’IA » ou « désinformation », et divers scores. Pouvez-vous nous parler du rôle de ces métadonnées dans le film ?
Ce sont des résultats de tests réels, issus des recherches menées avec les modèles du Goethe-Institut, entraînés spécifiquement sur la désinformation bulgare. Ces tests se rapportent directement aux titres que l’on lit à l’écran — ceux que prononce le Champignon.
Cela dit, ils ne sont pas là pour servir de preuve. Au contraire, parce que dans ce jeu de la détection, c’est un peu le jeu du chat et de la souris : l’IA générative évolue extrêmement vite, alors que tous les mécanismes pour la détecter sont trop lents. On ne peut que faire des suppositions, exprimées en pourcentages de probabilité : « il y a 92 % de chances que ce soit généré par une machine. » Mais aujourd’hui, presque tout texte est hybride — entre l’humain et la machine — ce qui rend l’identification encore plus difficile.
Ensuite, il y a eu les tests sur le sentiment (l’analyse de la tonalité), qui étaient sensibles au langage utilisé — un langage qui emploie des formulations anxiogènes. Et enfin, il y avait un test sur le contenu de la désinformation, qui se concentrait sur l’accroche, la manière dont le clickbait est formulé et la structure globale. Tout cela représentait plutôt un niveau d’incertitude supplémentaire.
Lorsque l’on met des textes fouillés dans des détecteurs d’IA, souvent ils indiquent que le texte a été produit par une IA avec pour motif : « c’est trop bien documenté »…
(rires) Il y a énormément de débats là-dessus. Ce qui est passionnant, c’est que l’IA elle-même est traversée de biais immenses. « C’est très bien documenté, donc c’est généré par une machine » : c’est un préjugé — un·e humain·e peut très bien avoir écrit cela.
Il y a aussi des particularités purement techniques : si un détecteur d’IA a été entraîné avec 80 % de textes générés et seulement 20 % de textes humains alors la machine aura tendance à classer presque n’importe quoi comme étant généré par une IA. La recherche s’interroge beaucoup sur les données d’entraînement : faut-il du synthétique, et en quelle proportion ? Trop de synthétique crée des biais… C’est un domaine immense. On ne pourra probablement pas suivre le rythme. Il nous faut développer d’autres types de capteurs pour réussir à nous orienter.
Pensez-vous que l’art puisse aider ?
L’art peut faire ce qu’il a toujours fait : transformer tout cela en sujet de réflexion. Ou simplement sensibiliser.
De Veneta Androva; Support Machine Learning : Tsvetomila Mihaylova; Bulgarie; Allemagne; 2026; 16 minutes.
Malik Berkati, Nyon
© j:mag Tous droits réservés