Interview de Gérald Holubowicz


Journaliste-chef de produit & consultant média spécialisé en innovation éditoriale, Gerald Holubowicz aide les médias à penser et à fabriquer leurs formats innovants. Par ailleurs, depuis 2018, il étudie l’impact des médias synthétiques (deepfakes et IA génératives) sur la fabrique de l’information et la culture numérique et il accompagne les entreprises qui souhaitent mieux appréhender ces nouveaux outils.

ChatGPT et les médias : anticiper l’arrivée de l’IA dans une rédaction

Durée : 7 h
Dates : jeudi 29 juin 2023 – jeudi 28 septembre 2023

Emmanuel Doridot : L’utilisation des intelligences artificielles (IA), en tant que modèles de traitement du langage, a commencé dans la production d’écrits. Quelles questions cela pose-t-il, à votre avis, dans la presse ou la littérature ?

Gerald Holubowicz : L’usage des IA dans la presse et la littérature, mais aussi dans tous les autres domaines qui requièrent une production écrite, pose différentes questions. Une première d’ordre intellectuel : peut-on réellement déléguer la production de sens et d’idées à une intelligence artificielle  ? Une deuxième d’ordre juridique : a-t-on le droit d’utiliser les contenus produits par l’IA sachant qu’elle-même repose sur des bases de données par ailleurs constituées de contenus copyrightés ? 

Sur le plan économique, il s’agit d’évaluer l’impact des IA génératives sur les industries créatives et sur l’information. Bien sûr, côté info, les questions de désinformation se posent, mais aussi celle de l’effet d’aubaine dont certaines entreprises s’emparent et continueront de s’emparer pour « optimiser » les flux de production (comprendre : licencier des journalistes sous prétexte de se préparer à l’arrivée de l’IA, comme l’a fait Axel Springer). Bref, c’est un vaste champ d’observations qui s’ouvre devant nous. 

ED : L’utilisation des IA pose-t-elle des problèmes de même nature dans les productions iconographiques et littéraires ?

GH : Oui, les mêmes questions. La technologie sous-jacente est la même, elle repose sur les mêmes mécanismes ; les entreprises qui les mettent en œuvre répondent toutes à la même logique, et les entrepreneurs qui les dirigent viennent tous du même endroit et véhiculent les mêmes valeurs, les mêmes idéaux philosophiques et politiques.  

ED : Des étudiants de l’université Lyon-I ont utilisé ChatGPT pour leurs travaux dirigés, malgré cela, faute de précédent, il a fallu noter les rendus. Cette anecdote laisse-t-elle entrevoir la possibilité d’une correction assistée par l’IA (par exemple, GPT Zero Classic ou Draft and Goal) ?

GH : Non, pas du tout. Ces logiciels ne fonctionnent pas bien en français (ou dans une autre langue peu représentée dans les modèles d’entraînement principalement anglophones) et, par ailleurs, n’ont aucune idée du contexte ni aucune capacité de raisonnement, à peine ont-ils un sens de la logique. Et puis, recourir à une IA pour corriger les réalisations d’une IA n’est pas la solution. Les entreprises qui poussent ces technologies n’ont pas pensé les conséquences de leurs créations dans le monde réel. Sauf à ce qu’un mouvement s’organise pour très fortement encadrer l’usage des IA génératives, il va falloir faire avec, les observer et les utiliser avec parcimonie, contrôle, et faire preuve d’un regard critique prononcé. Pour ce qui est de la correction des devoirs, je pense que c’est un faux problème et qu’il va falloir repenser la pédagogie et les évaluations de savoir et de savoir-faire pour contourner le problème. 

ED : À l’université Paris-I, un professeur de TD prétexte que ses étudiants utilisent ChatGPT pour ne plus donner de travail. À votre avis, à quelle échéance les modèles de traitement du langage vont-ils intégrer nos usages ?

GH : Eh bien, je peux comprendre qu’il ne donne plus de travail à réaliser à domicile, mais, en cours, il faut profiter de ce moment pour réinventer ces pratiques. Il y a certainement un renouveau pédagogique qui se profile à l’horizon pour peu qu’on ne casse pas le désir d’apprendre chez les étudiants. 

En réalité et de façon plus large, je ne pense pas que les filières favorisées seront trop impactées par ces nouveaux services. Elles le seront modérément, mais l’impératif social chez les étudiants à fort capital social, intellectuel et culturel de maîtriser les savoirs pour mieux évoluer professionnellement par la suite restera un marqueur fort. En revanche, dans les filières accueillant les populations les moins favorisées, les IA peuvent justifier d’aménagements qui pourraient avoir des effets particulièrement dramatiques sur la scolarité de ces jeunes. On peut très bien imaginer que certains soutiens pédagogiques soient délégués à l’IA et non pas à un véritable professeur qui disposera de l’empathie nécessaire pour aider à faire comprendre des concepts et des notions difficiles à maîtriser.

ED : Vous avez cité les productions iconographiques générées au « style de » (Kim Jung Gi¹). À quand une production littéraire “à la manière de” (le nouveau Houellebecq façon ChatGPT et le dernier Marc Levy avec Google Bard)?

GH : ChatGPT permet d’ores et déjà de produire des textes « à la façon de ». Le nombre de livres générés à l’aide d’une IA a par ailleurs explosé sur Amazon. Imiter le style n’est pas interdit, seul le plagiat d’œuvres réalisées est interdit. On peut envisager que ce soit le renouveau du roman de gare, des lectures de qualité médiocre produites en masse pour satisfaire un public à la recherche de littérature jetable. 

ED : Le remplacement des cols bleus par les machines à fait s’accroître le besoin mais aussi la radicalité des méthodes de gestion. Quelles évolutions la perspective des cols blancs remplacés par les IA laisse-t’elle imaginer  ?

GH : Vaste sujet. C’est Antonio Casilli² qu’il faut consulter sur le sujet de l’automatisation du travail, ou l’auteur américain Aaron Benanav qui a écrit L’Automatisation et le futur du travail³. Grosso modo l’un et l’autre parlent d’une précarisation des travailleurs sur lesquels il sera plus facile de faire pression en jouant sur la peur de la concurrence avec l’IA. On peut également penser que la prolétarisation au sens strict du terme va aussi toucher ces cols blancs, qui ne seront plus en maîtrise de leur travail ni de leurs savoir-faire. C’est par ailleurs une opportunité pour les employeurs peu scrupuleux et particulièrement cyniques d’ignorer l’apport des savoir-faire humains et de réaliser des économies d’échelle. Enfin, malgré un certain nombre de déclarations sur le nombre d’emplois impactés (aux alentours de 300 millions dans le monde selon Goldman Sachs, dont 50 % verraient leur force de travail remplacé par les IA génératives), on pourrait finalement être déçus par l’ampleur de la catastrophe dans le sens où d’un point de vue médiatique, elle serait moins spectaculaire (pas de longues files d’attente devant Pôle Emploi), mais plus profonde (paupérisation graduelle des classes moyennes et glissements politiques vers des radicalités par voie de conséquence). 

ED : Le rôle de l’humain sera-t-il de nouveau celui d’un correcteur, ajusteur et vérificateur de rendu, comme une sorte de machiniste littéraire ou iconographe ?

GH : Non, probablement pas mais c’est déjà de plus en plus le cas. Pour écrire ces réponses et être certain de la bonne qualité de mon rendu, j’utilise déjà un logiciel de correction orthographique. Il y en a désormais un partout. Avec l’ajout d’une IA comme ChatGPT dans Word, les corrections stylistiques auront encore davantage de sens et de pertinence. Donc, pour le travail de tous les jours ou à faible valeur ajoutée, tous ces boulots n’auront plus de sens malheureusement. 

Je pense encore une fois que la production de contenus va se diviser en deux catégories, l’une principalement automatisée avec un faible engagement humain, l’autre très artisanale avec un faible engagement machine. La première sera réservée à la production de contenus en masse pour tirer les coûts vers le bas, l’autre restera la production des élites intellectuelles et viendra combler les besoins d’une population exigeante, capable de se payer un travail humain de qualité, signe d’exception et marqueur social de prestige.

ED : Tout comme l’œil s’habitue à une certaine esthétique, l’oreille peut avoir le goût par l’usage d’un certain vocabulaire, de certaines tournures. Comment les modèles de traitement du langage vont-ils influer sur la façon de parler de 2040 ?

GH : C’est une bonne question, intéressante à traiter, mais ces outils seront-ils encore largement diffusés en 2040 ? Il est trop tôt pour le dire. 

ED : Les droits d’auteur et de patrimoine iront bien quelque part. La balance penchera vers les plateformes productrices de modèle du traitement du langage ou plutôt vers les auteurs quel que soit le degré d’utilisation des IA ?  

GH : Les droits d’auteur sont attachés en droit à la personne physique et répondent à des critères stricts qui pour le moment sont confirmés par les tribunaux de différents pays. Le US copyright office a d’ailleurs rendu une décision récente à ce sujet. Sauf à modifier profondément cette vision du droit, ce qui aurait des conséquences au-delà des industries créatives, il y a peu de chances pour que la rémunération des droits d’auteurs dont pourraient bénéficier les IA génératives soit attribuée aux entreprises. Il faut par ailleurs que la question de l’usage des données d’entraînement soit tranchée et que leur statut juridique soit affirmé d’une façon ou d’une autre pour qu’on puisse imaginer un futur sur ce point. 

ED : Le remplacement humain est au cœur de la phobie de l’IA. Nicolas Taffin dans un podcast France Inter (Le code a changé : ce qu’on voit, ce qu’on ne voit pas 21 février 2023) propose de voir notre place, non dans le contenu, sur lequel les modèles de traitement du langage sont entrainés mais plutôt sur la marge, l’interlignage, le blanc polysémique et silencieux. Est-ce que dans le futur, l’humanité pourrait se reconnaître dans le silence et l’erreur ?  

GH : Oui et c’est ce qu’on remarque avec le retour de l’artisanat d’art. On recherche là la trace de la main humaine, l’imperfection, le tracé de l’encre. Mais tout ça est question d’époque et de mémoire. Mais là encore, quand il s’agit de valoriser la rareté, on crée une distinction qualitative importante et un clivage entre catégories sociales et de revenus qui pourront accéder intellectuellement et financièrement à des productions plus ou moins automatisées. C’est déjà le cas, un Rembrandt est inaccessible à la plupart sauf à quelques milliardaires, des copies de haute qualité réalisées par des peintres coûtent cher, les affiches du musée Rembrandt coûtent une trentaine d’euros.    

ED : Est-ce que vous trouvez qu’AIgiarism (prétendre qu’une production assistée par une intelligence artificielle est la nôtre) soit un néologisme (et un anglicisme) heureux ?

GH : Oui, c’est drôle, comme tous les néologismes. L’IA ne copie pas, elle mobilise une mémoire numérique de contenus sur lesquels elle s’est entraînée et dont elle utilise certains aspects techniques. C’est ce qui fait la difficulté juridique de qualifier les contenus produits par ces IA génératives à mon sens, et c’est ce qui rend difficile la compréhension des enjeux. En tout cas, AIgiarism évoque un imaginaire encore flou, à définir davantage, mais intéressant.


1. HOLUBOWICZ Gerald, « ChatGPT et les médias : anticiper l’arrivée de l’IA dans une rédaction », emi.coop.
2. CASILLI Antonio, En attendant les robots. Enquête sur le travail du clic, Paris, Seuil, 2019.
3. BENANAV Aaron, L’Automatisation et le futur du travail, Paris, Éd. Divergences, 2020.


Sur le sujet il est aussi intéressant de lire la tribune d’Antoine Buéno dans Libération du 21 avril 2023 intitulé : « ChatGPT IA de l’espoir ».

Propos recueillis
par Emmanuel Doridot