Une société spécialisé dans le porno promet d’insérer des clients dans des scènes utilisant des deepfakes

Fake Scarlett Johansson
Fake Scarlett Johansson

NON ce n’est pas Scarlett Johansson c’est un fake !

Un nouveau service qui permettra aux clients de vivre leurs fantasmes avec l’aide de l’IA.
Le concept de «deepfakes» a fait son apparition sur Internet à la fin de l’année dernière, à la suite d’un cas étrange après que des codeurs amateurs eurent découvert qu’ils pouvaient utiliser l’IA pour changer rapidement et facilement des célébrités en clips pornographiques. Le phénomène a soulevé d’importantes questions sur le consentement et la vengeance, mais les défenseurs de la technologie ont toujours affirmé qu’il pouvait aussi avoir des utilisations non nuisibles.

L’un d’eux est la compagnie porno “Naughty America”. Cette semaine, elle a lancé un service qui permet aux clients de personnaliser les clips pour adultes à leur convenance en utilisant l’IA. Ils pourront s’insérer dans des scènes aux côtés de leur acteur ou actrice préféré ou modifier l’arrière-plan d’un clip existant. “Nous voyons la personnalisation et la personnalisation comme l’avenir”, a déclaré le PDG de Naughty America, Andreas Hronopoulos, à Variety dans une interview.
La société a fait la démonstration du service avec une paire de clips échantillons. L’un mélange les visages de deux actrices et un autre échange l’arrière-plan d’une scène d’une chambre à une plage. Ce n’est pas l’utilisation la plus avancée de la technologie, mais le mélange des visages est relativement homogène, et cela montre à quel point ce type de manipulation de vidéo par IA est devenu accessible.

Les clients qui souhaitent être insérés dans une scène devront envoyer à Naughty America un ensemble de photos et de vidéos d’eux-mêmes, y compris différentes expressions faciales permettant au logiciel de reproduire fidèlement leur image. L’entreprise déclare que son équipe juridique obtiendra le consentement des acteurs impliqués. Des modifications simples ne coûteront que quelques centaines de dollars et des modifications plus longues et plus complexes se produiront par milliers.

Il existe un certain nombre de problèmes potentiels avec ce service. Par exemple, comment Naughty America saura-t-il que les photos et vidéos soumises par les clients sont également consensuelles ? Ils pourraient être pris sous de faux prétextes et soumis au site par un tiers. (On a posé des questions à Naughty America mais on n’a pas encore reçu de réponse.)

Il peut également être important pour l’entreprise de marquer de manière indélébile les vidéos résultantes, afin de ne pas les confondre avec les clips pornographiques originaux. C’est ce que recherchent un certain nombre d’entreprises et de chercheurs, d’autant plus que les experts craignent que le montage vidéo à l’aide d’IA ne soit utilisé pour créer de fausses vidéos à des fins de manipulation politique.
Mais Naughty America présente cela comme une utilisation naturelle de la technologie. “C’est juste de l’édition, c’est tout ce que c’est”, a déclaré Hronopoulos du concept “deepfake”. “Les gens ont édité les visages des gens sur des photos depuis le début de l’internet”.

De nombreuses questions éthiques et juridiques se posent pour l’utilisation de ces nouveaux outils logiciels (NDLR).
Exemple:
Quelqu’un a utilisé un algorithme pour coller le visage de la star de Wonder Woman, Gal Gadot, sur une vidéo porno, et les implications sont terrifiantes.
Il y a une vidéo de Gal Gadot qui a des relations sexuelles avec son demi-frère sur Internet. Mais ce n’est pas vraiment le corps de Gadot, et c’est à peine son propre visage. C’est une approximation, le visage échangé pour donner l’impression de jouer dans une vidéo porno sur le thème de l’inceste.

Une image tiré de la vidéo complète, hébergé sur SendVids, montrant le visage de Gal Gadot sur le corps d'une star du porno.

La vidéo a été créée avec un algorithme d’apprentissage automatique, utilisant des éléments facilement accessibles et un code source ouvert que toute personne ayant une connaissance pratique des algorithmes d’apprentissage en profondeur pourrait mettre au point.
Cela ne va pas tromper quiconque va regarder de près. Parfois, le visage ne suit pas correctement, mais en un coup d’œil, cela semble crédible. Il est particulièrement frappant d’envisager qu’il s’agit du travail d’une seule personne, un Redditor appelé “deepfakes”, et non d’un grand studio d’effets spéciaux capable de recréer numériquement une jeune princesse Leia dans Rogue One en utilisant CGI. Au lieu de cela, deepfakes utilise des outils d’apprentissage automatique à code source ouvert tels que TensorFlow, que Google met gratuitement à la disposition des chercheurs, des étudiants diplômés et de toute personne intéressée par l’apprentissage automatique.

On comprend le genre d’implications que peut générer l’utilisation de ce genre d’outil amélioré et utilisé à des fins criminelles ! (NDLR)

Comme l’outil Adobe qui peut faire dire n’importe quoi, et l’algorithme Face2Face qui peut permuter une vidéo enregistrée avec un suivi du visage en temps réel, ce nouveau type de faux porno montre que nous sommes sur le point de vivre dans un monde dangereux. Il est facile de fabriquer des vidéos crédibles de gens qui font et disent des choses qu’ils n’ont jamais faites. Même avoir des relations sexuelles.

Jusqu’à présent, deepfakes a publié des vidéos pornos mettant en vedette Scarlett Johansson, Maisie Williams, Taylor Swift, Aubrey Plaza et Gal Gadot sur Reddit. Je me suis adressé aux sociétés de gestion et / ou aux publicistes qui représentent chacun de ces acteurs pour les informer des fausses vidéos et je les mettrai à jour si je les reçois.

Fausses célébrités porno, où les images sont prises en photos pour ressembler à des personnes célèbres qui posent nues, est une catégorie de porno avec une base de fans assidus. Les gens commentent et votent dans le sous-registre où les articles de deepfakes sont de grands fans de son travail. C’est le dernier progrès dans ce genre..

Selon deepfakes, qui a refusé de me donner son identité pour éviter le contrôle du public, le logiciel est basé sur plusieurs bibliothèques open source, comme Keras avec le backend TensorFlow. Pour compiler les visages des célébrités, M. Deepfakes a déclaré qu’il utilisait la recherche d’images Google, les photos et les vidéos YouTube. L’apprentissage en profondeur consiste en des réseaux de nœuds interconnectés qui exécutent de manière autonome des calculs sur les données d’entrée. Dans ce cas, il a entraîné l’algorithme sur des vidéos porno et le visage de Gal Gadot. Après avoir suivi cette «formation», les nœuds s’organisent pour accomplir une tâche particulière, comme manipuler de manière convaincante la vidéo à la volée.
Alex Champandard, chercheur en intelligence artificielle, m’a dit dans un courriel qu’une carte graphique de qualité destinée aux consommateurs pouvait traiter cet effet en quelques heures, mais qu’un processeur fonctionnait aussi bien, seulement plus lentement, au fil des jours.

“Ce n’est plus sorcier”, a déclaré Champandard.

La facilité avec laquelle quelqu’un pourrait le faire est effrayante. Mis à part le défi technique, tout le monde aurait besoin de suffisamment d’images de votre visage, et beaucoup d’entre nous créent déjà des bases de données tentaculaires sur nos propres visages: Les gens du monde entier ont envoyé 24 milliards de selfies à Google Photos en 2015-2016. Il n’est pas difficile d’imaginer un programmeur amateur exécutant son propre algorithme pour créer une sex tape de quelqu’un qu’il veut harceler.

Deepfakes m’a dit qu’il n’était pas un chercheur professionnel, mais un programmeur intéressé par l’apprentissage automatique.

“Je viens de trouver un moyen intelligent de faire du swap”, a-t-il déclaré, faisant référence à son algorithme. “Avec des centaines d’images de visage, je peux facilement générer des millions d’images déformées pour former le réseau”, a-t-il déclaré. “Après cela, si je nourris le réseau du visage de quelqu’un d’autre, le réseau pensera que c’est juste une autre image déformée et essaye de la faire ressembler au visage de l’entraînement”.

Dans un commentaire sur Reddit, deepfakes a mentionné qu’il utilise un algorithme similaire à celui développé par les chercheurs de Nvidia* qui utilise l’apprentissage en profondeur pour, par exemple, transformer instantanément une vidéo d’une scène d’été en une version hivernale. Les chercheurs de Nvidia qui ont développé l’algorithme ont refusé de commenter cette application possible.
Dans presque tous les exemples publiés par deepfakes, le résultat n’est pas parfait. Dans la vidéo de Gadot, une boîte apparaissait de temps en temps autour de son visage où l’image originale est visible, et sa bouche et ses yeux ne correspondent pas tout à fait aux paroles de l’actrice, mais si vous plissez les yeux cela pourrait aussi bien être Gadot; Les autres vidéos de deepfakes sont encore plus convaincantes.

Grace Evangeline, une actrice porno, m’a dit sur Twitter que les stars du porno avaient l’habitude de diffuser leur travail gratuitement sur des sites comme SendVid, où le faux Gal Gadot est téléchargé, sans leur permission. Mais elle a dit que c’était différent. Elle n’a jamais rien vu de tel.

“Le consentement est une chose importante qui doit toujours se produire”, a déclaré Evangeline. “Consentement dans la vie privée et consentement sur film. Créer de fausses scènes de sexe de célébrités leur enlève leur consentement. C’est du faux”.

Même pour les personnes dont le moyen de subsistance consiste à se placer devant une caméra, la violation des limites personnelles est troublante. J’ai montré à Alia Janine, une artiste porno à la retraite qui travaillait dans l’industrie du sexe depuis 15 ans, la vidéo de Gadot. “C’est vraiment dérangeant”, me dit-elle par téléphone. “Cela montre en quelque sorte comment certains hommes ne voient fondamentalement les femmes que comme des objets qu’ils peuvent manipuler et être forcés de faire tout ce qu’ils veulent … Cela montre simplement un manque total de respect pour les acteurs du film et les actrices”. .

J’ai demandé à deepfakes s’il considérait les implications éthiques de cette technologie. Le consentement, la vengeance et le chantage sont-ils entrés dans leur esprit lors du développement de cet algorithme?

“Chaque technologie peut être utilisée avec de mauvaises motivations, et il est impossible de l’arrêter”, at-il déclaré, la comparant à la même technologie qui recrée la performance post mortem de Paul Walker dans Furious 7. “La principale différence est la facilité avec laquelle tout le monde peut le faire. Je ne pense pas que ce soit une mauvaise chose pour un plus grand nombre de personnes de faire de la recherche sur l’apprentissage automatique “.

Ethiquement, les implications sont énormes, a déclaré Champandard. L’utilisation malveillante de la technologie ne peut souvent pas être évitée, mais elle peut être contrée.

“Nous devons avoir un débat très fort et public”, a-t-il déclaré. “Tout le monde doit savoir à quel point il est facile de simuler des images et des vidéos, au point que nous ne pourrons plus distinguer les contrefaçons dans quelques mois. Bien sûr, cela était possible depuis longtemps, mais cela aurait pris beaucoup de ressources et de professionnels en effets visuels. Maintenant, cela peut être fait par un seul programmeur avec du matériel informatique récent”.
Champandard a déclaré que les chercheurs peuvent alors commencer à développer une technologie pour détecter les fausses vidéos et aider à modérer ce qui est faux et ce qui ne l’est pas, et que la politique Internet peut améliorer ce qui se passe lorsque ces types de falsification et de harcèlement apparaissent.

“D’une manière étrange”, c’est une bonne chose, a déclaré Champandard. “Nous devons nous concentrer sur la transformation de la société pour pouvoir y faire face”.
* Cette histoire a été mise à jour pour préciser que l’algorithme de deepfake est similaire à la recherche produite par les chercheurs de Nvidia, mais qu’il n’y a aucune preuve que ce soit une application de leur travail.

Soyez le premier à commenter

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée.


*