Deep Fake

L’intelligence artificielle nous prépare de belles surprises. Dernière en date, paraissant anodine à première vue et pourtant suscitant bien des angoisses, la possibilité de prêter des mouvements à un visage, d’emprunter une voix, en bref : un détournement possible de son identité (numérique) !

Grâce aux progrès de l’intelligence artificielle – et plus particulièrement des réseaux de neurones – des programmes sont aujourd’hui capables d’utiliser des images existantes pour générer d’autres images. Ça signifie que vous pouvez animer un visage, lui donner des expressions, l’insérer dans une autre image. La pornographie s’en est vite saisie pour mettre le visage de stars sur des corps d’actrices pornographiques. Les humoristes s’en sont aussi saisi pour réaliser des détournements :

Mais il y a une dimension supplémentaire : d’autres logiciels permettent de trafiquer les voix. Par exemple, vous pouvez parler avec la voix de Barack Obama, c’est rigolo.  A partir du moment où les algorithmes ont à leur disposition suffisamment d’images et de discours existants, des logiciels des plus faciles à manier et de plus en plus efficaces permettent de faire dire n’importe quoi à n’importe qui :

Plusieurs travaux récents, effectués sur le sujet, ont d’ailleurs montré à quel point ces visages humains, reproduits de manière réaliste, peuvent être obtenus en entraînant des réseaux de neurones convolutifs pour les générer. Une étude de ce système technologique a été réalisée pour le Samsung AI Center et a vu le jour au Moscow Skolkovo Institute of Science and Technology. Et pour les petits curieux parmi vous qui souhaitent en savoir plus, l’étude complète est disponible à la lecture en cliquant ici.


Si elles se développent et sont utilisées à grande échelle pour créer de fausses déclarations d’hommes politiques, par exemple, on entrerait dans ce qu’un expert a désigné comme un monde de la “fake news sous stéroïde”. Parce que, aux dires des chercheurs, il n’est pas facile de déterminer techniquement si une image a été trafiquée par ce type de programmes (il faut créer des logiciels qui puissent détecter des défauts dans les mouvements des cils par exemple). Ce serait une guerre de programme informatique contre programme informatique, un fact checking technique. 

Mais il pourrait y avoir une autre conséquence, d’ordre quasi philosophique : toute image circulant dans les réseaux deviendrait par essence suspecte, l’image numérique basculerait dans le monde du faux, de la fabrication, on n’y croirait plus du tout. Elle tomberait dans un autre registre, celui de la fiction, on regarderait les images qui circulent sur Internet comme on regarde des films de fiction.

Le « deep fake » aurait tué l’idée même qu’il y ait une vérité dans l’image numérique. On y chercherait autre chose. Ce serait étrange, ça inaugurerait une nouvelle ère du journalisme.


Sources de l’article :

Répondre

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google

Vous commentez à l'aide de votre compte Google. Déconnexion /  Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.