Oui, même Google veut lutter contre le terrorisme et il promet de nettoyer YouTube

Google a décidé d'agir à sa façon contre le terrorisme. La firme tech va supprimer les contenus extrémistes sur YouTube. L'idée est de faire de sa plateforme une "safe place", un endroit sûr. Une lutte qui s'avère assez complexe.

Hier encore, une voiture bélier fonçait dans la foule à Londres, faisant un mort et plusieurs blessés. Avant cela, il y a eu Paris, Bruxelles, Manchester... Pour les politiciens britanniques, la source de ces attaques terroristes serait les réseaux sociaux, réseaux sur lesquels les jeunes peuvent facilement être poussés à se radicaliser.

En réponse à ces déclarations, Google a décidé de faire le ménage sur YouTube: la firme californienne veut supprimer les contenus extrémistes qui pullulent sur la plateforme de contenus vidéos. Mais cela n'est pas si facile, vu le nombre de vidéos hébergées par YouTube. En 2017, environ 300 heures de vidéos sont uploadées sur YouTube... à chaque minute. Mais voici la méthode YouTube en quatre points.

Intelligence artificielle

Repérer les vidéos extrémistes dans cet océan de vidéo est évidemment humainement très compliqué. Mais pour les intelligences artificielles (IA), c'est autre chose. "Nous allons augmenter notre utilisation de la technologie pour aider à identifier les vidéos extrémistes et liées au terrorisme", explique Google dans un post de blog.

Google affirme que les IA ont permis de trouver et d'évaluer plus de 50% du contenu qui a été supprimé ces six derniers mois. La firme prévoit de mettre plus d'argent dans la recherche afin qu'elle puisse former l'AI à identifier plus rapidement les contenus qui enfreignent ses politiques et ensuite les supprimer directement.

"Trusted Flaggers" et ONG

Mais le géant d'Internet reconnaît que faire uniquement confiance à ses algorithmes peut être dangereux. Du coup, il fera aussi appel à des "Trusted Flaggers", soit des observateurs indépendants de confiance qui surveilleront les vidéos de la plateforme et décideront s'il faut ou non les supprimer.

"L'expertise humaine permet de faire la différence entre les vidéos de propagande (...) et l'information", écrit Google. Ce que les machines ne font pas toujours, Facebook s'en souvient bien. La firme de Moutain View va également faire appel à des ONG qui luttent déjà contre le fanatisme. Ces 53 organisations devraient "identifier des contenus utilisés pour radicaliser et recruter des fanatiques".

Publicités ciblées et avertissement

Pour décourager les potentielles recrues qui seraient captivées par les contenus extrémistes, Google va leur envoyer... des publicités ciblées. Ce seront des publicités avec des messages censés déconstruire l'idéologie prônée dans les vidéos. Ces vidéos font partie d'un vaste programme lancé par Google appelé Creators for Change. Ce programme donne de la voix à des discours anti-haine et radicalisation.

YouTube va aussi s'armer d'avertissements: avant les vidéos avec des contenus religieux radicaux, un message avertira les viewers que le contenu est idéologiquement dangereux et pernicieux. Une méthode qui pourrait potentiellement décourager les viewers de visionner des discours de haine.

Démonétisation

Et enfin, la méthode la plus ingénieuse sur les plans commerciaux et idéologiques, c'est la démonétisation des contenus jugés extrêmes. Les proprios de ces chaînes ne toucheront plus de YouTube Money pour leurs vidéos choquantes (et donc à fort caractère viral). Ces vidéos ne seront également plus "Recommandées", soit elles n'apparaitront plus dans ton YouTube par erreur.

C'est un double pas que fait YouTube en optant pour la démonétisation. D'un côté, il tue la visibilité de ces vidéos problématiques et de l'autre, il regagne la confiance des annonceurs. Ces derniers avaient menacé de quitter YouTube en début d'année si leurs vidéos pouvaient encore être aléatoirement associées à des contenus extrémistes. On espère que ce choix de Google montrera l'exemple au reste des réseaux sociaux, tels que Twitter ou Instagram.

Déjà lu?