Les deepfakes sont la forme de crime la plus dangereuse avec l’intelligence artificielle, selon un nouveau rapport de l’University College London.
Le terme «deepfake» fait référence à une vidéo dans laquelle l’intelligence artificielle et l’apprentissage en profondeur, une méthode d’apprentissage algorithmique utilisée pour former des ordinateurs ont été utilisés pour donner l’impression à une personne de dire quelque chose qu’elle n’a pas dit.
Des exemples notables de celui-ci incluent une vidéo manipulée du discours présidentiel d’Apollo 11 de Richard Nixon et Barack Obama insultant Donald Trump.
Les auteurs de l’étude ont déclaré que le contenu deepfake est un danger pour un certain nombre de raisons: l’une des principales est qu’il serait difficile à trouver. En effet, alors que les détecteurs de deepfake nécessitent une formation sur des centaines de vidéos et doivent être victorieux dans chaque cas, les individus malveillants ne doivent réussir qu’une seule fois.
Une deuxième raison est la variété de crimes pour lesquels deepfakes pourrait être utilisé, comme le discrédit d’une personnalité publique en se faisant passer pour un membre de la famille. L’effet à long terme de cela pourrait conduire à une méfiance à l’égard des preuves audio et vidéo en général, ce qui, selon les chercheurs, serait un préjudice sociétal inhérent.
Nous avons eu les différents cas de stars dont l’image à été détourné pour être dans des videos pornographiques.
«Les gens mènent désormais une grande partie de leur vie en ligne et leur activité en ligne peut faire et défaire des réputations. Un tel environnement en ligne, où les données sont la propriété et le pouvoir d’information, est idéalement adapté à l’exploitation par des activités criminelles basées sur l’IA », a déclaré le Dr Matthew Caldwell, auteur de la recherche.
«Contrairement à de nombreux crimes traditionnels, les crimes dans le domaine numérique peuvent être facilement partagés, répétés et même vendus, ce qui permet de commercialiser des techniques criminelles et de fournir le crime en tant que service. Cela signifie que les criminels peuvent être en mesure d’externaliser les aspects les plus difficiles de leur crime basé sur l’IA. »
Actuellement, l’utilisation prédominante des deepfakes est pour la pornographie. En juin 2020, des recherches ont indiqué que 96% de tous les deepfakes en ligne étaient destinés à un contexte pornographique, et près de 100% de ces cas concernaient des femmes.
Cependant, de nombreuses personnes considèrent l’utilisation de la désinformation en ligne comme un précurseur important du développement de deepfakes. En 2019, le Parti conservateur a falsifié une vidéo de l’actuel leader travailliste Kier Starmer pour suggérer qu’il avait fait moins bien dans une interview qu’il ne l’avait fait.
Une action similaire a été prise par les partisans républicains en Amérique, conduisant à une version éditée d’une vidéo de la présidente démocrate Nancy Pelosi qui la faisait paraître en état d’ébriété, une vidéo partagée par Donald Trump.
Bien qu’ils ne soient pas eux-mêmes deepfakes, ils ont montré qu’il existe un marché pour le contenu vidéo qui pourrait diminuer l’apparence des opposants politiques.
En plus du contenu deepfake, les chercheurs ont découvert cinq autres crimes utilisant l’intelligence artificielle qui pourraient être très préoccupants à l’avenir.
Celles-ci incluent l’utilisation de voitures sans conducteur comme armes, l’utilisation de l’apprentissage automatique pour personnaliser les messages de phishing, la perturbation des systèmes contrôlés par la machine, la rédaction de fausses nouvelles et la collecte d’informations en ligne pour le chantage.
Evidemment elles tenteront de vous faire prendre des unités pour être en duo avec elles et faire des cochonneries, libre à vous de vous laisser tenter. Je trouve les systèmes actuels sains et non dangereux pour le budget, car en fait on ajoute des sous sur un compte, de quelques euros à des centaines d’euros et quand on est en privé avec une fille de son choix cela décompte de ce compte mais donc aucun danger d’aller plus loin. C’est ce qu’on appelle en téléphonie le forfait bloqué je crois. tant que vous n’aurez pas décidé d’ajouter des sous de votre plein gré vous ne pourrez pas les dépenser, je pense que c’est sérieux comme façon de voir et sans stress.
L’inscription et les dialogues en public sont gratuits évidemment.
Système garanti par journalduporno.com
Soyez le premier à commenter