Intel part en guerre contre les deepfakes et a trouvé un nouveau moyen de les détecter. Rappelons que les deepfakes sont des images ou des vidéos qui utilisent l’intelligence artificielle pour créer des faux contenus à partir de personnes réelles. Par exemple, la chaîne de télévision Channel 4 a créé un faux discours de Noël de la reine d’Angleterre pour mettre en garde contre ce type de manipulations.
Pour détecter les deepfakes, Intel a trouvé une nouvelle méthode qui analyse les veines du visage. En effet, celles-ci changent de couleur quand le cœur envoie du sang. Ces changements au niveau du derme peuvent être analysés par une méthode appelée photopléthysmographie (PPG), qui mesure la quantité de lumière absorbée ou réfléchie par les vaisseaux sanguins. En recueillant les données PPG sur environ 32 zones du visage et en utilisant l’apprentissage profond (deep learning), il est possible de détecter si une personne est vraie ou fausse. En outre, le système analyse aussi les mouvements des yeux, qui constituent de bons indices de détection. Cette technologie a été baptisée FakeCatcher et fonctionne en temps réel (l’envoi des résultats ne prend que quelques millisecondes). Elle offre selon Intel un taux de précision de 96 %.
Certes, il existe d’autres approches pour la détection des deepfakes. Citons par exemple l’analyse du reflet de la lumière dans les yeux ou de la forme des pupilles. Mais la solution d’Intel a l’avantage de fonctionner en temps réel. Selon Intel, FakeCatcher peut traiter simultanément jusqu’à 72 flux de détection sur des machines dotés de processeurs Xeon de troisième génération.
FakeCatcher sera sans doute un outil important pour lutter contre ces fausses vidéos qui deviennent de plus en plus répandues et ne touchent pas que les célébrités telles que Tom Cruise, Elon Musk ou Leonardo DiCaprio. La tromperie due aux deepfakes peut causer des dommages et entraîner des conséquences négatives, comme une diminution de la confiance dans les médias. La technologie d’Intel pourrait par exemple être utilisée par les médias et les ONG, mais aussi par les réseaux sociaux pour empêcher que les utilisateurs ne publient ce type de vidéos pour diffuser de fausses informations.
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.
Source : Intel