Des gens peuvent créer un porno avec ton visage sans même que tu le saches

Créer une vidéo DeepFake est aussi simple que de prendre une photo de votre profil facebook et la convertir en vidéo via une application. Mais les clips réalistes ont de grandes conséquences, dont des vidéos pornos de toi qui peuvent être faites à ton insu. Ou bien ils créent de faux discours politiques qui peuvent même miner la démocratie. Il n’y a pas encore de législation spécifique contre ces vidéos.

Et si les gens te prenaient en photo et en faisaient une vidéo porno? Ou s’ils diffusaient une fausse vidéo de Trump faisant de fausses déclarations? C’est possible grâce à l’intelligence artificielle.

Un clip réaliste

Auparavant, il fallait de grandes bases de données d’images pour créer un clip réaliste, mais de nos jours, une simple photo suffit. Par exemple, votre photo de profil sur Facebook. Bien sûr, vu qu’on est sur Internet, il n’a pas fallu longtemps pour que cette technologie soit utilisée à des fins pornographiques.

Pour mieux comprendre la puissance de cette technologie, il suffit de voir cette vidéo où Obama dit que « Trump est une sombre merde ».

Intelligence artificielle

Pour créer des vidéos DeepFake, ils utilisent l’intelligence artificielle. Par exemple, Samsung a récemment réalisé un clip de la Joconde et de la Jeune Fille à la Perle. On pouvait voir les peintures iconiques sourire et parler, comme si elles étaient vivantes. Ces dernières semaines aussi, on s’est rendus compte de la puissance et l’accessibilité de ce genre de technologie. Par exemple, le filtre réaliste de Snapchat où tu pouvais changer de genre, ainsi que les filtres vieillissants qui circulaient à nouveau sur les réseaux sociaux.

Revenge Porn

On connaissait déjà le revenge porn: quelqu’un, habituellement ton ex-partenaire, met en accès libre des photos nues ou des vidéos sexuelles de toi sur Internet. DeepFake va encore plus loin, car il s’agit d’images complètement inventées. Un certain nombre de célébrités en sont devenues victimes. Selena Gomez, Emma Watson, Scarlett Johansson et Jennie du groupe K-Pop Blackpink l’ont vécu. Leurs visages étaient collés sur des vidéos pornographiques, donnant l’impression qu’elles faisaient vraiment du porno.

Mais il n’y a pas que les célébrités qui ont vécu cette horreur. La journaliste indienne Rana Ayyub a dû y faire face et en a fait un article dans le Huffpost. Cette journaliste controversée a tiré une sonnette d’alarme en novembre de l’année dernière, lorsqu’une de ses amies lui a soudainement envoyé une vidéo porno avec son visage. Tout a commencé quand une fillette de 8 ans avait été violée, créant l’indignation dans toute l’Inde. Le parti nationaliste Bharantiya Janata (BJP) a marché dans la rue pour soutenir les accusés. Rana Ayyub avait été invitée par la BBC et Al Jazeera pour en parler et après ses critiques sévères à l’égard de l’Inde, certains ont ainsi décidé de la punir.

Harcèlement

Suite à cela, de faux messages ont été postés depuis son compte twitter, qui affirmaient qu’elle « adorait les pédophiles » ou qu’elle « détestait l’Inde », qu’elle a rapidement démentis. Cette expérience a été courronée par cette fausse vidéo la montrant en train de s’adonner à des actes sexuels filmés. La vidéo est devenue virale, et elle a fini par subir un harcèlement de la part d’hommes qui lui faisaient des suggestions vis à vis de son corps et de ce qu’ils pourraient lui faire s’ils l’avaient à disposition.

Législation

Tout cela semble bel et bien illégal, et pourtant il n’existe pas de législation spécifique contre les vidéos DeepFake. Ceux qui les distribuent peuvent cependant être poursuivis pour harcèlement, bien que ça reste difficile. Aux USA, la Defense Advanced Research Projects Agency (DARPA) a déjà dépensé des millions pour permettre à des spécialistes des médias de traquer ces vidéos, tout en travaillant avec des professeurs autour du monde pour comprendre lesquelles sont vraies et lesquelles sont fausses.

Plus
Lire plus...