Twitter voulait lancer sa propre version d’OnlyFans mais a rencontré un problème avec la pédopornographie

Au début de cette année, Twitter a travaillé sur une nouvelle fonctionnalité permettant aux utilisateurs de partager leurs photos et vidéos (de nus) moyennant des frais sur le même principe que OnlyFans. Cependant, l’étude de faisabilité a révélé un problème majeur. Twitter n’était pas en mesure de lutter efficacement contre la pédopornographie sur la plateforme.

C’est une grosse enquête de The Verge qui a révélé le problème. Twitter voulait lancer sa propre version d’OnlyFans mais a dû faire marche arrière à cause du risque de propagation massive d’images pédopornographiques sur le réseau social.

OnlyFans à la Twitter

À l’heure actuelle, si tu te perds sur Twitter, tu peux facilement tomber sur des vidéos et photos sexy voire pornographiques. Pour lutter contre ça, Twitter a voulu créer sa propre version d’OnlyFans pour encadrer tout cela. Ainsi, les utilisateurs pouvaient partager toutes les photos et vidéos « olé olé » dans un cadre correct tout en générant de l’argent.

Une solution rentable pour les utilisateurs mais aussi pour Twitter. La preuve: OnlyFans est bien parti pour boucler cette année 2022 avec un chiffre d’affaires de 2,5 milliards de dollars.

Au début de l’année, Twitter a donc rassemblé 84 employés pour mettre ce projet en place et le faire de manière responsable et sécurisée. Cette équipe de choc a expliqué tout le projet à The Verge et les problèmes qu’ils ont rencontrés.

Un problème insoluble

L’équipe s’est rapidement rendu compte du problème. « Twitter est incapable de détecter la pédopornographie et la nudité non autorisées », indique le rapport de l’équipe. C’est pourquoi le projet a été abandonné en mai, quelques semaines après qu’Elon Musk ait fait une offre de 44 milliards de dollars pour s’offrir Twitter. Mais cela ne change rien au problème de la pédopornographie sur Twitter, bien sûr. Twitter a déclaré qu’il avait une tolérance zéro pour la pornographie juvénile. Mais les méthodes qu’ils utilisent la pour détecter sont clairement insuffisantes.

Twitter utilise PhotoDNA. Il s’agit d’une base de données avec laquelle Twitter compare les photos postées sur la plateforme. Mais cette base de données ne peut retrouver que des images connues. Du coup, de nombreuses photos passent entre les mailles du filet. Selon le National Center for Missing and Exploited Children (NCMEC), 84 % des cas de pédopornographie ne figurent pas dans cette base de données. Toutes ces photos ne peuvent donc pas être tracées par la technologie qu’utilise Twitter. C’est pourquoi Twitter utilise un deuxième système appelé RedPanda. Mais ce serait un outil obsolète qui est « l’un des outils les plus vulnérables, inefficaces et mal pris en charge pour détecter la pornographie enfantine ».

Après plusieurs semaines, Elon Musk a décidé de ne pas s’offrir l’Oiseau Bleu. La raison principale ? Le problème des faux profils et des bots sur la plateforme. « Une gifle », c’est ainsi qu’un ancien employé de Twitter a décrit cette déclaration de Musk. « Il est tout simplement ridicule qu’Elon Musk déclare que le spam est la question la plus importante à laquelle il devait répondre avant de pouvoir acheter l’entreprise. Alors qu’il y a un gros problème autour de la pédopornographie sur la plateforme. »

Plus
Lire plus...