L’intelligence artificielle fait face à ses dérives : le Deepfake

Bien que l’intelligence artificielle ait révolutionné de nombreux secteurs, elle se voit entachée par le scandale du Deepfake depuis désormais un an. Ce terme désigne l’ensemble des algorithmes permettant d’insérer des visages dans une vidéo afin de leur faire faire et dire ce que l’on veut.

Les résultats de ces algorithmes de contrefaçons vidéos et sonores ne cessent de s’améliorer et, au-delà des enjeux juridiques liés au détournement de l’image personnelle, risquent d’être à l’origine d’un déferlement de contenus surclassant le phénomène des fake news. Se pose alors l’enjeu de la détection de ces imitations quasi-parfaites.

 

L’Intelligence artificielle : des dérives difficiles à endiguer

La recherche en intelligence artificielle repose essentiellement sur le partage d’informations et d’algorithmes. Ainsi, par son fonctionnement, elle met à la disposition du plus grand nombre des applications concrètes, peu chères et accessibles car ne nécessitant que peu de connaissances techniques. Par conséquent, il est normal de voir se multiplier de nombreux usages imprévus. Or, la loi peine à opérer sa transition digitale et se voit légiférer en réaction aux différentes dérives. Par conséquent, il n’est pas étonnant de voir prospérer des applications malveillantes. De plus, la présence de plus en plus conséquente de ces technologies interroge sur le contrôle de leurs résultats. Ainsi, de nombreux algorithmes sont accusés d’être biaisés et d’agir de manière discriminantes (sexisme, racisme, etc…).

Ainsi, l’intelligence artificielle est source de dérives difficiles à prévoir que ce soit par la variété des usages qui émergent de la communauté ou bien par les différents biais qui passent le plus souvent inaperçus.

 

Le Deepfake : une crise majeure de l’information

Le 17 avril 2018, le media américain BuzzFeed publie une interview de Barack Obama aux mots choquants « President Trump is a total and complete dipshit ». Cette vidéo saisissante est l’œuvre du comédien Jordan Peele. Son but est d’alerter l’opinion publique sur les dangers de ces contenus qualifiés de deepfake. En effet, ces algorithmes qui ne cessent de s’améliorer sont à l’origine de vidéos dont l’authenticité semble des plus réelles. Dès lors, la crise des fake news depuis 2016 semble atteindre une toute nouvelle ampleur avec la démocratisation de cette nouvelle technologie :

« On savait qu’on ne pouvait pas croire ce qu’on lisait. Maintenant, il ne faut pas croire ce qu’on entend et même ce qu’on voit de nos propres yeux ».

Le sujet est source de sérieuses inquiétudes et risque de profondément détruire la confiance des réseaux d’informations. Ainsi, 3 élus américains ont essayé d’inscrire ces applications sur la liste des menaces pour la sécurité nationale.  En France, un rapport sur la désinformation a souligné le risque de fragilisation ou de disparition de sources dites de confiance.

 

La Blockchain, une solution au phénomène de Deepfake ?

Face à la crise des fake news et désormais des contenus Deepfake, les gouvernements se mobilisent. Ainsi, l’agence de recherche américaine pour les projets de défense, la DARPA, a financé divers projets pour un montant de 68 millions de dollars. L’Union Européenne, quant à elle, a mis en place la plateforme InVid.

Mais il se pourrait que la solution vienne d’une autre révolution technologique poussée par des entreprises innovantes : la Blockchain. En effet, au-delà de l’usage médiatique des crypto-monnaies dont le Bitcoin est la plus connue, la Blockchain est avant tout une technologie permettant un archivage décentralisé des données, accessible par tous et infalsifiable. Ainsi, des entreprises comme Factom ou bien Amber Authenticate proposent une application permettant d’associer à chaque contenu vidéo un code appelé « hash » qui résume le contenu. Ce code étant généré à la captation originelle de la vidéo par l’appareil, il décrit le contenu authentique. Par conséquent, la démocratisation de ce système permet de vérifier à tout instant si une vidéo diffusée correspond bel et bien à sa captation originelle. Dans le cas contraire, l’application notifie par un cadre orange que la vidéo a été altérée.  

 

Fabien Laborde


Sources :

http://www.lefigaro.fr/secteur/high-tech/2019/01/02/32001-20190102ARTFIG00162-apres-les-fake-news-la-menace-du-deep-fake-prend-de-l-ampleur-sur-le-web.php

https://www.nytimes.com/2018/11/19/science/artificial-intelligence-deepfakes-fake-news.html

https://www.washingtonpost.com/opinions/a-reason-to-despair-about-the-digital-future-deepfakes/2019/01/06/

https://www.sciencesetavenir.fr/high-tech/la-blockchain-comme-arme-anti-deepfake

https://www.wired.com/story/the-blockchain-solution-to-our-deepfake-problems/

Abonnez-vous à Make it digital

Recevez par email chaque lundi matin l'ensemble des articles publiés sur le blog Make it Digital. La garantie de suivre les dernières évolutions du digital !

Garantie sans spam.

Leave a Comment