Une étude publiée par la revue "Nature" montre que les poèmes écrits par ChatGPT sont davantage appréciés par des lecteurs débutants que ceux rédigés par de grands auteurs, tels que William Shakespeare ou Emily Dickinson. Cette étude montre aussi toute la difficulté à différencier un texte généré par l'IA d'une œuvre réelle.
L'intelligence artificielle pourrait-elle vendre des millions de livres à l'avenir ? À en croire les résultats d'une étude publiée dans la revue Nature, ses écrits ont l'air d'être plutôt bien appréciés. Aux États-Unis, des chercheurs ont demandé à des lecteurs non experts en littérature de comparer des poèmes, publiés par de grands noms comme William Shakespeare ou Emily Dickinson, et ceux générés par ChatGPT (version 3.5). Résultat : la majorité du panel interrogé a préféré découvrir les œuvres de l'IA.
>> A ECOUTER - ChatGPT-4o : la révolution de l'intelligence artificielle
Dans cette étude, les scientifiques ont choisi dix auteurs anglophones célèbres, chacun ayant marqué son époque : William Shakespeare, Samuel Butler, Lord Byron, Walt Whitman, Emily Dickinson, TS Eliot, Allen Ginsberg, Sylvia Plath, Geoffrey Chaucer et Dorothea Lasky. Et ils ont demandé à ChatGPT d'écrire des poèmes dans le style de ces différents auteurs.
Difficulté à différencier un texte humain et un texte généré par une IA
Les participants ont relevé, chez les poèmes écrits par l'IA, des qualités de rythme et de beauté du texte, qu'ils pensaient attribuer à une origine humaine. La simplicité et "l'accessibilité" des textes produits par ChatGPT peut aussi amener ces lecteurs non aguerris à davantage les apprécier. Ainsi, selon les auteurs de l'étude, "les participants étaient plus susceptibles de juger les poèmes générés par l’IA comme étant d’origine humaine que les poèmes réellement écrits par des humains".
Cette préférence peut aussi être due à l'idée préconçue faite de l'intelligence artificielle, les personnes sondées s'attendant à ce que la poésie créée par l'IA ne soit pas de bonne qualité. En conclusion, les auteurs expliquent qu'il serait "utile" que "les gouvernements cherchent à réglementer la transparence dans l’utilisation des systèmes d’IA", cette utilisation étant difficile à repérer comme le montre cette étude.