NOUVELLES
20/06/2017 05:45 EDT | Actualisé 20/06/2017 05:48 EDT

Google dévoile son plan contre les contenus «terroristes» sur YouTube

LIONEL BONAVENTURE via Getty Images
TO GO WITH AFP STORY BY NATHALIE ALONSO A webcam is positioned in front of YouTube's logo on June 28, 2013 in Paris. A new type of crook hunts its victims on the web, pushing them to erotic games in front of their webcam before blackmailing them with the videos. AFP PHOTO / LIONEL BONAVENTURE (Photo credit should read LIONEL BONAVENTURE/AFP/Getty Images)

Après Facebook la semaine dernière, Google affirme à son tour intensifier ses efforts en matière de lutte contre les contenus "extrémistes ou liés au terrorisme" sur sa plateforme vidéo YouTube, grâce notamment à l'intelligence artificielle.

Google, comme d'autres géants d'internet, fait face à des pressions régulières des gouvernements qui leur demandent de lutter plus efficacement contre ce genre de contenus. Fin mai, les dirigeants du G7 ont encore accentué leur pression sur ces entreprises.

"Nous travaillons, comme d'autres, depuis des années à identifier et faire disparaître le contenu qui va à l'encontre de nos règles. Mais la vérité, aussi gênante soit-elle, c'est que nous devons, en tant que secteur économique, reconnaître qu'il faut faire davantage", a écrit le groupe dimanche dans un texte publié sur son blog.

Cette démarche "peut être compliquée: la vidéo d'un attentat terroriste peut relever de l'information si elle est publiée par la BBC, ou bien être une apologie de la violence, selon le contexte et l'utilisateur qui l'a mise en ligne", poursuit le groupe.

Google promet de renforcer son utilisation de l'intelligence artificielle, de façon à ce que les ordinateurs "nous aident à identifier et à retirer plus rapidement des contenus extrémistes ou liés au terrorisme".

Reconnaissant que la technologie ne saurait être la seule réponse, le groupe de Mountain View (Californie) promet d’augmenter "de façon importante le nombre d'experts indépendants" chargés de surveiller les vidéos.

"Les machines peuvent nous aider à identifier les vidéos qui posent problème, mais l'expertise humaine permet de faire la différence entre les vidéos de propagande (...) et l'information", explique Google.

LIRE AUSSI:

» Un Québécois coupable d'avoir tenté de participer à des activités terroristes

» Piétons fauchés à Londres: «Je veux tuer tous les musulmans»

» J.K. Rowling à la défense des musulmans de la mosquée de Finsbury Park

Le groupe va également collaborer avec davantage d'ONG pour filtrer les contenus, est-il précisé, ainsi qu'avec des "groupes (qui luttent contre) le fanatisme" de façon "à identifier des contenus utilisés pour radicaliser et recruter des fanatiques".

Il va aussi utiliser les techniques de publicité ciblée pour envoyer à des recrues potentielles de groupes terroristes des vidéos qui déconstruisent ces messages, dit-il encore.

Google va enfin renforcer sa lutte contre les vidéos qui contiennent des propos "religieux" extrémistes ou prônant la suprématie idéologique.

Les groupes du secteur multiplient les actions de communication qui détaillent leurs engagements contre les contenus litigieux, qui nuisent à leur image.

YouTube a dû faire face au printemps à un boycott d'annonceurs publicitaires, après l'apparition de certaines annonces à côté de contenus polémiques (antisémites, incitant à la haine ou faisant l'apologie du terrorisme). Google avait alors déjà annoncé le renforcement de ses contrôles.

Facebook a publié jeudi un texte détaillant ses actions contre la propagande terroriste, largement similaires à celles de Google, alliant intelligence artificielle et recrutements d'experts.

Fin 2016, Facebook, Twitter, Microsoft et YouTube ont annoncé la création d'une base de données commune rassemblant les "empreintes digitales numériques" de certaines images ayant été retirées de l'une ou l'autre de leurs plateformes.​

Voir aussi: