Arrêtez les selfies!

Arrêtez les selfies si vous ne voulez pas vous retrouver un jour, malgré vous, héro d’un film porno ou d’une vidéo fabriquée de toutes pièces. Pourquoi les selfies? Parce que les logiciels de reconnaissance d’image sont aujourd’hui assez puissants pour plaquer les images de votre visage sur un autre corps, même en mouvement. Avec quelques images de votre visage sous des angles différents, récupérés sur le Net via n’importe quel moteur de recherche, un utilisateur lambda ou presque peut les recréer et les coller sur, par exemple et au choix, une vidéo pornographique, une vidéo d’agression ou d’effraction, ou une vidéo entièrement « fake » réalisée par un moteur d’intelligence artificielle (1).

A l’heure actuelle de telles vidéos réalisées par des amateurs sont assez facilement reconnaissables comme étant des « fakes », mais avec le bon matériel c’est déjà moins évident à discerner et, d’ici quelques mois, à peu près n’importe qui aura accès à des outils comparables disponibles sur le Net. Il ne faudra pas être surpris, alors, de vous retrouver licencié pour faute grave ou comportement inacceptable, de vous retrouver en GAV pour un crime supposément enregistré par une caméra ou un smartphone, de vous mettre votre conjoint voire toute votre famille à dos, de vous faire racketter pour quelque chose que vous n’avez pas fait mais dont vous êtes le caractère principal bien reconnaissable dans une vidéo parfaitement crédible.

Hystérie paranoïaque ? Si seulement. Les trucages photos existent depuis longtemps, et dans l’épisode Rogue One de Star Wars (d’ailleurs, le 8 sort aujourd’hui…) on a reconstitué les personnages de Tarken et de la princesse Leia en 2016 comme ils étaient en 1977. Mais évidemment avec des moyens non accessibles au hacker… moyen. Ce qui a changé, c’est qu’il existe aujourd’hui des outils de type intelligence artificielle, tel le TensorFlow de Google, capables d’apprendre. Avec d’un côté accès à un ensemble de photos d’une personne et de l’autre un flux vidéo, on peut manipuler ces outils pour qu’ils apprennent à recréer ce visage artificiellement dans la vidéo. Ce serait même en passe de devenir un sport à la mode sur les sites type Reddit ou Sendvid.

On parle dans cet article de Motherboard (2) de l’actrice Gal Gadot, aka Wonder Woman, représentée par cette technique sur une vidéo porno. Tant que cela ne sert qu’a rigoler sur le dos des stars rien de bien grave sans doute, mais il ne faut pas beaucoup d’imagination pour percevoir le potentiel néfaste de ces techniques aux mains de crapules, maître-chanteurs et agents provocateurs en tous genres.

Face au possible détournement de nos images, et en particulier de nos selfies, la première et évidente action est de ne pas nourrir la bête, de ne pas produire de selfies accessibles en ligne et d’essayer d’effacer la plupart de ceux qui y sont déjà. On peut rechercher ces images via Google mais aussi par exemple via Tineye, qui regarde s’il existe des copies en ligne d’une photo donnée. Evidemment on ne risque pas grand chose avec quatre ou cinq photos de soi en ligne, mais combien de gens aujourd’hui postent des dizaines, voire des centaines d’images type selfie sur Facebook, Instagram et autres? Le jour où ce type de personne développe un peu de notoriété, ou devient l’objet d’un désir de vengeance, toutes ces images peuvent venir nourrir une machine à faire chanter, ou a détruire une réputation.

On peut par ailleurs se poser la question de pourquoi prendre des selfies? Sujet récurrent de discussion, le moteur principal du selfie semblant être sa capacité à augmenter notre « standing » en ligne, autrement dit le nombre de followers sur les réseaux sociaux. Mais cela peut aussi être une forme d’art en soi. Je conseille cet excellent article intitulé « L’art du selfie, de Rembrandt à Weiwei » (3).

« Toujours en tant qu’artiste, si vous créez des œuvres d’art, dont certaines vont vous survivre, pourquoi pas créer une image de vous-même qui durerait pour toujours ? »

Reste à voir dans quelle mesure l’IA détournera cette mode, qu’elle soit de nature  narcissique ou artistique.

 

Notes:

(1) https://zerhubarbeblog.net/2017/12/08/quel-controle-pour-lintelligence-artificielle/

(2) https://motherboard.vice.com/en_us/article/gydydm/gal-gadot-fake-ai-porn

(3) https://creators.vice.com/fr/article/aenm3k/warhol-weiwei-rembrandt-self-portrait-show-edinburgh

 

 

Publicités
No votes yet.
Please wait...

4 comments

  1. Le deepfake en marche: https://motherboard.vice.com/fr/article/qvwqxp/le-fake-porn-genere-par-machine-learning-prend-une-ampleur-inattendue?utm_campaign=buffer&utm_content=buffer0f724&utm_medium=social&utm_source=twitter.com

    No votes yet.
    Please wait...
  2. Le business des selfies sur le dark web: http://geeko.lesoir.be/2018/03/19/vos-selfies-sont-vendus-jusqua-70-dollars-sur-le-dark-web/

    No votes yet.
    Please wait...

Laisser un commentaire