Peut-on légitimer ce qu’on ne comprend pas ?
Dans les agences de communication, on aime aller vite. Tester. Démontrer qu’on a compris avant les autres.
On s’enorgueillit d’avoir été les premiers sur les réseaux sociaux, de maîtriser déjà les IA génératives quand beaucoup d’annonceurs en sont encore à la veille stratégique.
Mais à force de jouer les éclaireurs, une question revient : sommes-nous les bons acteurs pour décider de ce qui mérite d’être intégré ?
L’IA n’est pas un format. Ce n’est pas une plateforme, ni un canal.
C’est une technologie de fond, qui touche à la manière même dont nous produisons, organisons, percevons l’information.
Et nous l’adoptons… comme s’il s’agissait d’un outil parmi d’autres.
I. Agences et innovation : l’histoire d’une légitimation par l’usage
Depuis vingt ans, les agences ont intégré les innovations successives à une vitesse impressionnante.
Le web 2.0, les réseaux sociaux, le programmatique, les assistants vocaux, les NFT, le métavers — tous ont été testés, expérimentés, intégrés, parfois rejetés.
Cette logique d’essai-erreur est presque structurelle : dans un environnement où le temps d’attention est rare, ceux qui arrivent les premiers sont ceux qu’on écoute.
Mais cela crée une confusion : parce qu’elles testent, les agences semblent autorisées à décider.
Comme si l’usage valait pour validation. Comme si l’expérimentation suffisait à trancher.
Ce n’est pas le cas. Et avec l’IA, la différence est d’échelle. Elle est de nature.
II. L’IA n’est pas une innovation de surface
Ce qui distingue l’IA des technologies précédentes, ce n’est pas son efficacité.
C’est son effet de système.
L’IA ne s’ajoute pas à un existant. Elle recompose l’ensemble du processus :
de la recherche d’idées à la production, de la validation au déploiement, de la lecture du contexte à l’analyse des performances.
Elle agit comme une infrastructure invisible : elle automatise, suggère, complète, classe, hiérarchise, déduit.
Et elle le fait à partir d’un apprentissage sur des corpus que nous ne maîtrisons pas.
Cela crée un décalage fondamental : les agences utilisent une technologie dont ni la logique, ni les effets de bord, ni la dynamique d’apprentissage ne leur sont réellement accessibles.
III. Un système sans conscience
On peut bien sûr “s’en servir”. Beaucoup le font.
Mais l’usage, ici, ne suffit pas. Il ne suffit plus.
Demander à une IA de produire un visuel ou une idée de post n’est pas neutre.
C’est déléguer une part du raisonnement créatif à un modèle opaque.
C’est accepter que les critères de cohérence, de justesse ou de tonalité soient, au moins en partie, préformatés.
Ce que beaucoup d’agences refusent encore d’admettre, c’est que l’IA n’est pas un assistant.
Elle n’obéit pas. Elle modèle. Elle entraîne des habitudes.
Elle fait gagner du temps, oui — mais à condition qu’on abandonne une part du jugement.
Et dans la grande majorité des cas… on ne sait même pas laquelle.
IV. Une légitimation sans cadre
Ce qui est frappant, c’est l’absence totale de structure critique interne.
Il n’existe pas, dans la plupart des agences, de ligne rouge claire.
Pas de méthodologie d’évaluation.
Pas de réflexion philosophique ou sociale sur ce qui est produit.
Juste des expérimentations locales, des usages empiriques, parfois brillants, souvent improvisés.
Les agences qui vont plus loin (comme Almagination, spin-off IA de WPP) ne sont pas les plus prudentes.
Elles industrialisent l’usage. Elles automatisent la production à l’échelle.
Non pas pour remplacer l’humain, mais pour accélérer, rentabiliser, adapter — comme si le modèle de l’optimisation s’appliquait de la même façon qu’avec n’importe quel CMS.
Mais là encore, la question reste entière :
Qui décide de ce qui est acceptable ? Qui pense ce qu’on normalise ?
V. Un problème de culture et de formation
Il faut ici ajouter un point essentiel.
Les agences sont brillantes, mais leur culture dominante n’est pas technique, ni philosophique.
Elles sont peuplées de stratèges, de créatifs, de planneurs, de rédacteurs, de designers.
Des profils qui savent penser des récits, construire des systèmes de sens, manier les signes — mais pas analyser des technologies complexes.
L’IA générative, elle, s’appuie sur des mathématiques de haut niveau, des jeux de données massifs, des dynamiques d’entraînement et d’opacité.
Et pourtant, c’est à ceux qui ne sont pas formés à ces enjeux qu’on demande de l’intégrer, de l’évaluer, de le vendre.
Ce n’est pas une critique morale. C’est un problème d’outillage.
VI. Une révolution sans fonction
Autre phénomène marquant : aucune fonction stable ne vient encadrer l’usage de l’IA.
Lors des révolutions précédentes, chaque rupture a engendré son métier-tampon :
chef de projet digital,
UI/UX designer,
social media manager,
content strategist…
Autant de rôles qui ont permis de structurer, d’interpréter, de relier technologie et pratique.
Avec l’IA, rien.
Les “prompt engineers” ont existé quelques mois — vite présentés comme le nouveau Graal, vite tournés en dérision.
Pas assez techniques pour les ingénieurs, trop théoriques pour les créatifs, ils ont disparu sans laisser de trace durable.
Aujourd’hui, tout le monde est censé utiliser l’IA, mais personne n’est responsable de ce qu’elle produit.
VII. Tester, c’est déjà normaliser
Dans ce contexte, la légitimité des agences à adopter l’IA pose une question lourde :
Peut-on décider pour les autres sans comprendre ce que l’on met en jeu ?
Car l’effet de réseau est immédiat.
Ce que les agences testent devient une tendance.
Ce qu’elles produisent devient une norme.
L’expérimentation n’est pas une zone neutre : elle est un acte culturel.
Adopter un outil, c’est toujours faire passer un seuil.
Et dans le cas de l’IA, ce seuil est invisible — parce qu’il est partout.
VIII. Que faire ? Vers une éthique active de l’usage
Il ne s’agit pas de reculer. Il ne s’agit pas non plus de geler l’innovation.
Mais peut-être faut-il ralentir.
Écrire ce qu’on fait.
Documenter ce qu’on teste.
Dire ce qu’on refuse.
Et surtout : créer, au sein des agences, des espaces de pensée.
Des lieux, des rôles, des temps, où l’on ne cherche pas à “gagner du temps”, mais à se demander ce que ce temps gagné coûte :
- À notre métier ?
- À notre capacité de juger ?
- À notre responsabilité de parler au nom des autres ?
Ce qu’on a laissé de côté (et pourquoi)
Cet article ne traite pas des modèles techniques (GPT, Claude, DALL-E…).
Il ne parle pas non plus de la créativité augmentée, ni de la place des humains dans la boucle.
Ce qu’il interroge, c’est la légitimité implicite que s’arrogent les agences à “tester pour les autres”.
Il ne s’agit pas de dire qu’elles ne doivent rien tester.
Mais de poser une question :
Tester, c’est déjà décider.
Sommes-nous prêts à assumer ce que cela implique ?