Intel a une nouvelle technique pour démasquer les deepfakes - Quai Alpha
Incubateur de startups
Martin BOUVRON
martin@quai-alpha.com
+33 6 16 15 96 32
Studio de création de contenus
Louis HOBLINGRE
louis@quai-alpha.com
+33 7 64 26 67 81

Intel a une nouvelle technique pour démasquer les deepfakes

Intel a entraîné une intelligence artificielle à détecter si un visage est vrai ou non grâce à une analyse du flux sanguin​ qui le parcours

Le deepfake est une technologie qui, bien qu’impressionnante, est souvent utilisée à des fins malveillantes. Et la démocratisation de cet outil ne fait qu’augmenter. 

Depuis l’apparition de cette technologie, les entreprises se sont mis eux aussi à chercher un moyen de la contrecarrer, ou tout du moins à la détecter rapidement. La nouvelle solution que vient de présenter Intel est sans doute l’une des plus innovante et efficace.  

Qu'est-ce qu'un deepfake ?

Petit rappel des faits : un deepfake consiste en la superposition du visage d’une personne sur le corps d’une autre. Mais il ne s’agit pas que d’un simple masque inexpressif posé « par-dessus » le visage original, mais bien d’un algorithme informatique qui analyse les traits de la personne et permet d’appliquer ces mouvements et nuances au visage répliqué.

Pour ce faire, le logiciel en charge de cette opération doit se « nourrir » du plus d’images de la personne à copier possible, sous un maximum d’angles, afin d’en comprendre tous les détails et aspérités : plus ce processus est long et analyse une très grande quantité de clichés, et plus le deepfake final sera précis et crédible.

Si cette technologie utilisant l’Intelligence Artificielle a créé un effet « whaou » instantané lorsqu’elle fut dévoilée, ses dérives se sont avérées nettement plus inquiétantes : usurpation d’identité, propagation de fausses informations sous un autre visage, utilisation de visages de stars sur des vidéos pornographiques… Le président Ukrainien Zelensky en a même fait les frais durant le conflit avec la Russie, où une fausse vidéo de ce dernier circulait pour faire croire à une reddition de l’Ukraine.

De quoi dépeindre un futur plutôt chaotique si la moindre vidéo peut s’avérer être une imposture.

Trouvez une voix suffisamment similaire, et n’importe qui peut revêtir le visage de la personne concernée avec une facilité déconcertante

Quelle contre-mesures les entreprises ont-elles mises en place ?

Afin de lutter contre ces vidéos trompeuses, de nombreuses entreprises se sont empressées de trouver une solution afin de pouvoir plus facilement les détecter. Des organisations comme Facebook, le département de la défense américaine, Adobe ou encore Google, ont tous entraîné des logiciels et algorithmes afin de repérer les imperfections de certains deepfakes, pour ainsi s’offrir une manière de contrecarrer cette technologie.

La version d’Intel et Intel Labs de cet outil s’appelle « FakeCatcher », et il a une particularité bien spécifique : il analyse le flux sanguin du sujet afin de déterminer s’il s’agit d’une véritable personne, ou bien d’un deepfake.

En effet, l’IA d’Intel a utilisé le deep learning afin de s’entraîner à analyser les changements très subtiles de couleur de peau qui adviennent lorsqu’une personne parle et bouge son visage, sa bouche, sa mâchoire, ses joues… Un processus appelé « Photopléthysmographie » (ou PPG). 

FakeCatcher observe le flux sanguin dans les pixels d’une image, une chose qu’un deepfake ne sait pas encore répliquer, et examine les signaux de plusieurs images. Il soumet ensuite les signatures à un classificateur. Ce dernier détermine si la vidéo en question est réelle ou fausse. L’entreprise affirme que son logiciel est capable de déterminer si une vidéo est réelle ou non en quelques millisecondes, avec une précision de 96%.

Une solution similaire accessible en temps-réel via une interface web, un navigateur ou une extension, permettant d’analyser et de déterminer si une vidéo est vraie ou fausse en quelques secondes, permettrait de faire une grande différence dans la guerre à la désinformation qui s’annonce déjà comme l’une des plus compliquées à gérer dans les années à venir.

La contrepartie, c’est que ces algorithmes de falsification vont s’améliorer eux aussi avec le temps afin de devenir encore plus proche du réel pour pouvoir tromper tout le monde, humain ou IA. Comme à chaque fois que l’on s’informe, vidéo ou non, vérifier les sources de provenance d’une information reste un réflexe indispensable que tout internaute devrait appliquer, et cela risque d’être de plus en plus important dans les années à venir.