Bonjour, c’est Philippe,
Vous êtes peut-être comme moi, un peu fasciné par les résultats que peut fournir une intelligence artificielle comme ChatGPT. C’est parfois de très grande qualité même si elle n’a d’intelligence que le nom et fonctionne plutôt sur la base de probabilités(1) dans l’enchaînement des mots et des phrases qu’elle propose.
Il n’en faut pas plus pour que certaines rédactions décident d’en faire une sorte de pigiste non rémunéré. Aux Etats-Unis, le site CNET avait commencé à publier(2) des articles rédigés par l’IA dans sa rubrique “Money”, mais les contenus étaient truffés d’erreurs (de calcul notamment).
Nous ne sommes sans doute pas au bout de nos surprises. La société NewsGuard qui entend lutter contre la désinformation et les fake news s’est livrée à une expérience(3) dont le résultat est sans appel. Les experts ont interrogé ChatGPT à propos de 100 fake news identifiées dans la base de données de l’entreprise:
ChatGPT a généré de faux récits (…) pour 80 des 100 récits faux précédemment identifiés par NewsGuard. Pour une personne qui ne connaît pas les questions ou sujets couverts par ce contenu, les résultats pourraient facilement passer pour légitimes, voire même faire autorité.
Entre déferlement de fake news et publication de contenus de qualité très médiocre, l’IA ne présage pas que des lendemains riants.
Si l’intelligence artificielle, depuis un moment, a une multitude d’usages légitimes dans les rédactions (script automatique de vidéos pour faciliter le montage ou le sous-titrage, traduction automatique, résumé de longs textes, etc), elle est donc aussi porteuse de risques.
Faudra-t-il en passer par une labellisation “Fait maison”, comme dans les restaurants, pour attester que le contenu a vraiment été préparé par des humains dans les cuisines (la rédaction) du média ?
Le débat ne fait que commencer. et nous allons l’ouvrir à l’occasion des Journées formation Samsa à Paris le 23 mars 2023 en fin de journée. Vous pouvez déjà vous inscrire pour assister à la table ronde.
Bonne semaine.
Philippe Couve
Directeur de Samsa.fr et Samsa Africa
(1) Sciences et avenir: ChatGPT : l’intelligence artificielle d’OpenAI fonctionne comme une “petite partie du cerveau”
(2) Numérama: Le site tech CNET a laissé ChatGPT écrire des articles sans le dire clairement
(3) NewsGuard: Le prochain super propagateur d’infox: comment ChatGPT pourrait diffuser des infox toxiques à large échelle