N'importe qui peut dorénavant se retrouver dans un porno avec cette application flippante

Fake App est une application qui permet d'incruster n'importe quel visage tiré d'une série de photo dans une vidéo pour le placer sur la tête d'un acteur ou d'une actrice. Tel un Face Swap de cul, cette application rencontre un franc succès sur les sites pornographiques. Mais pas uniquement.

Le fake porn n'a pas attendu les avancées technologiques de retouche d'image pour exister. Dès les balbutiements du web, des photos grossièrement retouchées circulaient sur le web montrant soi-disant des images de célébrités nues. Ces collages apposaient des visages de stars sur des corps d'actrices pornos.

Un nouveau procédé bien plus flippant a débarqué dans le porngame: le deepfake porn dont le nom est tiré du subreddit où ce type de vidéos sont postées. Avec l'application de cartographie faciale FakeApp, réaliser une fausse vidéo porno à partir d'une vraie vidéo porno et de photos d'une célébrité est maintenant à portée de main de celui qui sait un petit peu bidouiller en informatique.

Absence de consentement

Fake App utilise l'intelligence artificielle pour trouver des images dans les banques de données que représentent Google Images, YouTube, Instagram et le web en général pour ensuite les faire correspondre avec les corps des acteurs. Comme l'écrit Motherboard, une bonne carte graphique suffit pour faire ce genre de manipulation. Sur le subreddit ou l'appli est partagée, le créateur écrit: "cette version réduit le processus de création vidéo à un seul bouton, et vise à permettre aux utilisateurs de créer rapidement plusieurs vidéos avec le même modèle".

Cet usage pose un problème évident: celui de l'absence de consentement. Actuellement, des fake porn avec la tête d'Emma Watson, de Gal Gadot et de Maisie Williams tournent à mort sur les plateformes de vidéos pour adultes. Dans le futur, on pourrait facilement voir des pornos truqués du même genre réalisés à partir de selfies tirés de comptes Instagram d'influenceuses (oui, ce sont les filles qui sont principalement visées pour le moment). On peut même imaginer voir apparaître une nouvelle forme de revenge porn où des ex-petits copains balanceraient de fausses vidéos pornographiques avec le visage de leur amour déchu.

Revanche et politique?

Comment expliquer à ton boss que tu n'as pas réalisé de sextape quand un clip de toi la queue à l'air tourne sur le web? Comment rester crédible politiquement quand une vidéo te montre dans des poses particulièrement cochonnes? Et que faire quand une vidéo te montre comme un gros dictateur, à l'instar de la vidéo ci-contre, sorte de mashup d'Hitler et du président argentin Mauricio Macri?

Cette application place dans les mains de n'importe qui un procédé autrefois coûteux et réservé aux studios hollywoodiens. Incruster Paul Walker dans Fast & Furious avait coûté plusieurs millions de dollars. Faire du revenge porn ne devrait coûter que quelques heures de travail, explique l'utilisateur UnobtrusiveBot à Motherboard. Dans la suite logique, faire des trucages vidéos sur des sujets politiques devrait devenir monnaie courante. Trump ultra-violent dans un fight-club, Macron dans un costume de CRS qui tabasse un étudiant, Charles Michel qui tape de la coke... les possibilités sont infinies.

Lenteur juridique

Sur le plan législatif, il ne faut pas se faire d'illusion, la loi aura toujours un train de retard sur ce genre d'inventions. Même si les questions de droit à l'image sont assez évidentes et cadenassées, il sera toujours compliqué de faire retirer ces vidéos. Le temps que la victime parvienne à mettre en branle l'appareil juridique pour faire supprimer une deepfake, celle-ci aura déjà été démultipliée sur de nombreuses plateformes.

Ces trucages restent pour le moment assez grossier. La supercherie est facilement détectable et il arrive souvent que le visage ne colle pas exactement au corps de l'actrice. Mais ces détails seront sans doute corrigés assez rapidement dans les mois qui viennent et il sera alors plus difficile de différencier les images réelles des images truquées. Quand viendra ce moment, le monde de l'information sera soumis à un problème de grande ampleur: comment prouver que les images que l'on diffuse sont authentiques?

Déjà lu?