Cet article fait partie des archives en ligne du HuffPost Québec, qui a fermé ses portes en 2021.

Journalisme automatisé: algorédacteurs et métajournalistes

Les algorédacteurs vont-ils tuer le métier de journaliste? Apparue dès 2010, cette lancinante question devient, chaque année, un peu plus centrale et stratégique, au cœur de l'écosystème du journalisme.
This post was published on the now-closed HuffPost Contributor platform. Contributors control their own work and posted freely to our site. If you need to flag this entry as abusive, send us an email.

MÉDIAS - Les algorédacteurs vont-ils tuer le métier de journaliste? Apparue dès 2010, cette lancinante question devient, chaque année, un peu plus centrale et stratégique, au cœur de l'écosystème du journalisme, qui va devoir affronter de profondes mutations structurelles durant les quinze prochaines années.

Journalisme, innovation et destruction créatrice

La montée en puissance de l'intelligence artificielle (IA), l'augmentation exponentielle des capacités de stockage et de traitement des données vont inéluctablement induire de fortes turbulences sur le métier. Jusqu'à présent, les activités de collectes et d'analyses de données puis de rédaction d'un article de synthèse résultaient exclusivement de calculs biologiques humains. Ce n'est plus le cas aujourd'hui: des algorithmes sont capables de produire de façon autonome un article, sous la forme de compte-rendu, d'une rencontre sportive en temps réel, une synthèse d'informations destinée à l'analyse financière ou un article d'alerte au tremblement de terre moins d'une minute après le séisme. Les progrès récents de l'intelligence artificielle, la production de données massives et les capacités d'analyse sémantique viennent bouleverser les équilibres traditionnels et obligent la profession à une introspection à la fois positive et prospective.

Les futures concurrences créées par les algorithmes rédacteurs doivent dorénavant être anticipées et accompagnées. Le métier de journaliste va évoluer morphologiquement et fonctionnellement. Il va devoir s'adapter rapidement aux mutations technologiques, les intégrer en se repositionnant peu à peu vers un "métajournalisme". Ce métajournalisme se situera à la racine du traitement algorithmique et assurera la supervision et l'orientation des systèmes de rédaction automatisés. Comme souvent lors d'évolutions technologiques disruptives impactant une activité humaine, l'innovation induit une "destruction créatrice" introduite par Joseph Schumpeter, en 1942, dans Capitalisme, Socialisme et Démocratie. Le processus de destruction créatrice relève, avant tout, du mécanisme systémique. Il modifie brutalement les équilibres en place, fait disparaître les emplois supplantés par l'innovation, mais provoque également l'émergence de fonctions inédites et de nouveaux métiers en liaison avec cette innovation. Le journalisme n'échappera pas au processus de destruction créatrice provoqué par les algorédacteurs. Il faut donc dès aujourd'hui anticiper et préparer cette évolution des fonctions et de l'infrastructure.

Ce que les "algorédacteurs" savent faire en 2015

Le texte suivant a été rédigé le 17 mars 2014 à 6h25 du matin par Quakebot (robot de séisme), seulement quelques secondes après qu'un tremblement de terre de magnitude 4,7 n'impacte la région de Beverly Hills Californie à 6h25:

"Un tremblement de terre peu profond de magnitude 4.7 a été signalé lundi matin à cinq miles (8 km) de Westwood, Californie, selon le bureau géologique des Etats-Unis. La secousse s'est produite à 6h25 heure du Pacifique à une profondeur de 5,0 miles, selon l'USGS, l'épicentre se trouvait à six miles (9,6 km) de Beverly Hills, Californie, sept miles (11,2 km) de Universal City, Californie, sept miles de Santa Monica, Californie et 348 miles (560 km) de Scramento, Californie. Ces dix derniers jours, il n'y a pas eu de tremblement de terre de magnitude 3,0 ou supérieure à proximité."

Cette information est fournie par le service d'annonce des tremblements de terre de l'USGS et ce billet a été créé par un algorithme construit par Ken Schwencke, journaliste et développeur au Los Angeles Times.

Dans les trois minutes suivant le séisme, le Los Angeles Times publiait l'article automatisé et était ainsi le premier à publier un compte-rendu, quasiment en temps réel, sans intervention humaine durant la phase de rédaction de l'information. L'exemple de Quakebot illustre une première tendance centrale qui favorise le développement d'algorédacteurs: celle de la réduction des temps de réaction séparant l'événement et sa publication dans la presse. L'idée sous-jacente d'investir des échelles temporelles incompatibles avec les temps de réaction biologique humain est omniprésente aujourd'hui. On retrouve cette tendance au sein de toutes les innovations liées aux technologies du Big Data. La collecte et l'analyse en temps réel des données massives souvent non ou peu structurées permettent en effet de gagner un temps précieux, notamment dans les domaines de la finance automatisée et du HFT (High Fréquency Trading). Chaque dixième de seconde gagné représente un gain financier important lorsqu'il s'agit ensuite de passer des ordres de vente ou d'achat, pour les opérateurs humains comme pour les "algotraders".

Désormais, le même phénomène d'optimisation du temps de réaction pousse les rédactions à une course aux armements de publication algorithmique. Il faut alors s'interroger sur le ratio "temps/qualité de restitution de l'événement ". C'est ce ratio qui conditionne finalement la pertinence de l'algorédacteur. La seconde tendance révélée par Quakebot est l'adaptation de l'algorithme à une classe d'événements et à leur description factuelle sans analyse profonde. Le compte-rendu de séisme est construit sur la compilation d'un ensemble de mesures distribuées automatiquement par les systèmes de surveillance des tremblements de terre. L'algorithme compile ces mesures et utilise une grille de rédaction préalablement implémentée qui permet de traiter ces données et de les intégrer au texte comme le ferait un opérateur humain.

Pour l'algorédacteur, l'espace d'analyse des sous-événements liés à l'événement principal est très restreint: il y est question de magnitude, de profondeur du séisme, d'épicentre et d'historique des séismes dans cette zone. L'algorithme privilégie le quantitatif et la mise en forme de la donnée. Le qualitatif intervient en seconde intention et s'efforce de rendre "humaine" la tonalité générale de l'article. L'imitation humaine dans le style de rédaction est un élément central intervenant lors de la construction d'algorédacteur. Le test de Turing est d'ailleurs très présent dans le cahier des charges du développeur de ce type d'algorithmes. Le niveau d'IA du code influence directement le rendu de l'article et son aspect "naturel". La rédaction automatisée rencontre un succès affirmé dans la rédaction de comptes-rendus de matchs de baseball (les algorithmes de Narrative Science) ou de crimes et délits demeurant toujours dans le registre de la description factuelle de l'événement.

Vers un métajournalisme...

Le rôle du journaliste va évoluer vers la supervision de systèmes automatisés de collectes de données massives, produites en temps réel. Le volume des données est tel qu'il rend impossible toute prise en compte humaine exhaustive. L'algorithme intervient alors comme un outil de raffinage de l'information. Le métajournaliste supervisera le gisement de données et orientera la création de l'article vers la tonalité qu'il souhaite lui donner. On notera que la durée de vie de la publication et sa qualité peuvent être augmentées par un effet participatif s'appliquant au germe d'article initial produit par l'algorédacteur. Le texte factuel est modifié en temps réel après sa mise en ligne, il est complété par de nouvelles informations issues des systèmes de collecte et/ou par les lecteurs eux-mêmes. La "U-information" désigne l'information ubiquitaire qui, par définition, est présente et active selon toutes les échelles temporelles et selon toutes les échelles d'espace (l'information du partout et du tout le temps). Elle émerge des infrastructures de données massives du cyberespace. Les algorédacteurs agiront alors comme des agents de diffusion de l'U-information.

Kristian Hammond, cofondateur de la société Narrative Science qui conçoit des algorédacteurs performants, prévoit qu'en 2030, plus de 90 % des articles de presse seront produits par des algorédacteurs. Il prévoit également qu'un algorithme remportera le prix Pulitzer en 2030.

VOIR AUSSI SUR LE HUFFPOST

Mai 2017

Les billets de blogue les plus lus sur le HuffPost

Close
Cet article fait partie des archives en ligne du HuffPost Canada, qui ont fermé en 2021. Si vous avez des questions ou des préoccupations, veuillez consulter notre FAQ ou contacter support@huffpost.com.