Intelligence artificielle dans les médias : le défi de la déontologie (4/4)

L’arrivée fracassante de l’IA dans le monde de l’information pose la question de l’éthique. Alors que certains médias créent leur charte interne pour l’utilisation de ce nouvel outil, le Conseil de déontologie journalistique et de médiation publie son guide des bonnes pratiques.

Intelligence artificielle dans les médias : le défi de la déontologie (4/4)

L’arrivée fracassante de l’IA dans le monde de l’information pose la question de l’éthique. Alors que certains médias créent leur charte interne pour l’utilisation de ce nouvel outil, le Conseil de déontologie journalistique et de médiation publie son guide des bonnes pratiques.

Si l’intelligence artificielle est encore loin de s’imposer comme l’outil incontournable du journalisme, force est de constater que de nombreux médias s’en emparent. Création d’images, génération de texte ou encore traduction automatique : la polyvalence de l’IA pose la question de la place du journaliste dans le traitement de l’information.

Le CDJM (Conseil de déontologie journalistique et de médiation), instance française d’autorégulation déontologique, s’est emparé de la question de l’intelligence artificielle avec la publication, en juillet 2023, du guide Journalisme et intelligence artificielle : les bonnes pratiques. Des recommandations nécessaires pour Yann Guégan, car “avec la montée en puissance de ChatGPT et Midjourney les derniers mois, il y a eu une vague de doute dans le métier”, avance le vice-président du CDJM.

« On ne condamne pas son utilisation» 

Yann Guégan, vice-président du CDJM

Les premières lignes de ce guide de douze pages dressent le constat de la montée en puissance de l’IA et son impact potentiel sur le métier de journaliste. Toutefois, le CDJM ne nie pas la possibilité pour le journaliste de se libérer “de tâches désormais automatisables”. Un avant-propos nuancé qu’assume Yann Guégan : “On ne condamne pas l’IA, mais on pose les questions éthiques qui découlent de son utilisation.

Par la suite, le CDJM donne des précautions d’emplois de l’IA, en établissant un degré de risque d’utilisation pour chaque pratique. Pour exemple, “la correction orthographique et grammaticale d’un texte avant publication” est considérée comme un risque faible. Il n’a donc pas d’impact sur l’information et ne doit pas obligatoirement être signifié aux lecteurs. A contrario, l’emploi de l’intelligence artificielle pour “le compte-rendu technique d’une rencontre sportive” est considéré comme un risque modéré ; son utilisation doit être indiquée.

L’emploi de l’IA, une question éditoriale

Le guide se termine par une série de recommandations, axée sur le comportement à adopter pour les journalistes et éditeurs. Parmi elles, la nécessité de se former à cette nouvelle technologie pour mieux l’appréhender. Mais aussi, de mieux valoriser le travail des photographes et des journalistes reporters d’images, qui peuvent sembler en première ligne face à “la multiplication des images générées par les outils d’IA et le degré de réalisme qu’elles atteignent”. En ce qui concerne la sécurité de l’emploi, le vice-président du CDJM botte en touche, “la disparition de certains postes dans les journaux est un choix qui revient à l’éditeur”, affirme Yann Guégan.

Face à une technologie émergente, qui se développe rapidement mais dont personne ne peut prédire les limites, ce premier travail du CDJM permet d’y voir plus clair. À terme, l’intelligence artificielle méritera peut-être une charte complète.

Maxime Gallée

Diapositive précédente
Diapositive suivante

Contact

Recevez les news de l'info locale

directement par mail