L’IA, on en pense quoi ?

Pour Diapason, comme pour tous les acteurs du secteur, l'IA est l'un des enjeux du moment. Loin de couler de source pour nous, l’irruption de l’intelligence artificielle générative, présentée comme une évidence, voire un incontournable, génère des questions d’ordre éthique, écologique, démocratique, voire existentiel. Dans cet article, on vous dit ce que nous, on en pense.

Des robots qui écrivent pour des robots : bienvenue en absurdie ?

La rédaction SEO porte déjà en elle ce petit quelque chose qui gratte. De fil en aiguille, les contenus s’adressent aujourd’hui, en premier lieu, aux moteurs de recherche (des robots) avant même de chercher la satisfaction des lecteurs et lectrices. Les pros du SEO le savent mieux que personne : écrire des dizaines d’articles en tournant en rond autour du même thème peut facilement mener au bore-out pour un humain normalement constitué. 

Mais l’IA change la donne, puisque désormais les robots peuvent écrire à notre place ! Youpi. Alors, quelle place, justement, reste-t-il réellement à l’humain lecteur (et créateur de sens), si des robots écrivent de la manière parfaite pour... des robots ? 

Un uppercut environnemental

L’IA, c’est aussi un impact environnemental démultiplié, comme le décrypte le média indépendant Bon Pote. En décembre 2025, la nouvelle fait le tour des réseaux : l'IA a consommé plus d’eau potable que l'industrie de l'eau en bouteille à l'échelle mondiale… Un bilan qui s'ajoute à celui, exponentiel, du numérique. 

Car qui dit IA générative dit multiplication des data centers pour les faire fonctionner. L’Agence internationale de l’énergie (AIE) prévoit une hausse de plus de 75 % de leur consommation électrique d’ici à 2026. En sachant qu’elles viennent parfois remplacer des outils qui fonctionnaient jusqu’alors très bien. 

À titre de comparaison, un prompt de recherche sur ChatGPT consommerait 10 fois plus de ressources qu’une recherche sur Google. Chaque nouvelle version de ChatGPT multiplie cet impact par 100. Sur le seul mois de janvier 2023, l’utilisation de ChatGPT a représenté l’équivalent carbone de 5 323 allers-retours Paris/New York... Et il ne s’agit que d’une IA générative parmi des dizaines d’autres.

Plus vrai que le vrai

Dans un paysage où vérités alternatives, “deep fake” et désinformation sont devenues pléthoriques, l’IA alimente la multiplication exponentielle de la quantité et de la qualité du faux. Avec elle, nous faisons face à un nouveau stade de perfectionnement qui interroge notre capacité d’authentification de l’information. Même quand nous sommes sensibilisés, bien informés, éduqués à vérifier... 

Pour Chris Schroeder, ancien directeur du Washington Post, “nous allons vers une massification des fake news à un rythme sans précédent. Toutes les modalités vont être utilisées pour diminuer l’habileté des gens à comprendre ce qui se passe réellement.”

Géraldine Muhlmann, journaliste et professeure de sciences politiques ne dit pas autre chose : “L’expérience constante du faux pourrait faire chavirer l’expérience de la vérité factuelle." Le tout contribuant à “accentuer de manière irréversible la virtualisation du monde.”

Dès lors, très concrètement, pour nous, créatrices de contenus attachées à la qualité de notre travail et à sa portée d’intérêt général, comment vérifier les infos quand plus aucune ne semble fiable ? Le temps gagné avec des IA génératives ne va-t-il pas être reperdu en fact checking ? Quid de la confidentialité des données et de la souveraineté des éléments que nous soumettons à l’IA : le manque de transparence partagé par les outils utilisant l’IA est, à ce titre, hautement problématique.

Journalistes, rédacteurices, sommes-nous voués à disparaître ?

Au-delà de ces questions éthiques et environnementales, le rouleau compresseur IA pose à nos professions des questions existentielles. Comment ne pas se sentir dépossédé de son métier, quand une machine semble pouvoir le faire ? 
L’IA est porteuse d’impacts sociaux et créatifs néfastes, et largement sous-estimés à nos yeux :

— les biais algorithmiques qui conduisent par exemple une IA générative d’image à qui l’on demande une photo de PDG à ne proposer que des photos d’hommes ;

— la rationalisation du réel et la perte de sa complexité ;

— l'automatisation du design et de la création, allant constamment vers un tiède quelque peu insipide.

Autant de points qui nous interrogent (et soyons honnêtes, nous inquiètent). 
Déléguer à l’IA des tâches créatives et intellectuelles qui sont la définition même de ce qui rend l’humain unique et singulier, n’est-ce pas vider nos métiers de leur sens ?

S’y intéresser, passage obligé

Tout ceci étant dit... il a bien fallu s'y frotter. Ne serait-ce que pour comprendre. Car bon gré mal gré, l’IA est déjà devenue omniprésente dans nos univers quotidiens et utilisée de façon massive dans les milieux professionnels.

Comment rivaliser (et maintenir notre rentabilité) si tout le monde automatise des tâches que nous réalisons de manière artisanale ?

L’aiguillon économique, la pression globale qui laisse à penser que “tout le monde le fait” et qu’il faut prendre le train en marche sous peine de rester à quai nous ont poussées à l’action.

Mais pas n’importe comment

Nous refusons de foncer tête baissée au mépris de l’éthique, de l’environnement, de la confidentialité, de la propriété intellectuelle et de ce qui fait le sel de notre métier :  

— Nous continuons à tester différents outils (retranscription automatisée de fichiers audios, création de présentations, décryptage de documents complexes, dialogue avec Perplexity - une IA qui donne ses sources - pour progresser sur un sujet...)

— Nous sommes connectées à d’autres acteurs qui travaillent sur les mêmes questions : journée de l’éco-conception numérique organisée par Les Designers éthiques, suivi du travail mené sur le sujet par les équipes de la Ville de Lyon.

L’objectif ? Aboutir à une position éclairée sur la question : n’utiliser que certains outils s’ils présentent une valeur ajoutée indéniable et que nous avons pu vérifier leurs garanties en termes de sécurité et de souveraineté. 

Ou, potentiellement, faire preuve de radicalité, rejeter totalement l’utilisation de l’IA et faire valoir cette position auprès de nos clients. Car nous restons persuadées qu’il n’existe pas qu’une seule voie.

Si notre choix est d’acter l’utilisation de ces outils, nous produirons une charte éthique d’utilisation qui sera remise à nos clients. D’ici-là, nous exerçons notre regard critique et nous employons à ne pas considérer comme une évidence cette “évolution”.