Nicolas Canteloup est un imitateur de grand talent qui fait mon bonheur depuis des années mais son métier est menacé par le développement de l’intelligence artificielle, notamment du deep learning permettant de faire des deep fake audio. Dans son émission quotidienne sur TF1, « c’est Canteloup » , il détourne des vidéos. Il enlève la bande-son originale et la remplace par une imitation de la célébrité avec des dialogues loufoques. Il fait également un travail d’orfèvre dans la synchronisation entre les mouvements des lèvres sur les images et ses imitations. Malheureusement pour Nicolas Canteloup, Schumpeter et sa théorie du progrès et de la destruction créatrice sont impitoyables. La technologie deep fake menace directement le métier pourtant hautement qualifié de Nicolas Canteloup. Heureusement l’imitateur a plus d’un tour dans son sac comme l’illustre sa dernière émission la grande métamorphose.
Des applis qui génèrent votre voix
Il y a quelques mois, je consacrai un article aux deep fake permettant de changer un visage dans une vidéo en s’appuyant sur les technologies d’intelligence artificielle. Après l’image, les technologies de deep learning s’attaquent également à la voix. J’ai testé l’application francophone CandyVoice. En moins de 10 minutes, vous y enregistrez 80 phrases avec différentes intonations et émotions. Les algorithmes de CandyVoice synthétisent alors votre voix. Vous tapez ensuite la phrase de votre choix et l’ordinateur la prononce avec votre voix. Le résultat interpelle mais la voix est encore très synthétique. L’application Lyrebird lancée en septembre 2017 est comme CandyVoice bluffante mais loin d’être parfaite comme le montre la vidéo ci-dessous utilisant Barack Obama comme cobaye.
Moins d’un an après, les progrès sont spectaculaires sur fond de concurrence mondiale. Le Chinois Baidu annonce pouvoir générer une voix avec seulement 5 secondes d’enregistrement avec sa technologie Deep Voice. Le rendu de Lyrebird devient lui tous les mois plus réaliste.
Le cocktail détonant deep fake audio + vidéo
Vous avez alors comme moi immédiatement pensé au cocktail potentiellement détonant deep fake audio + vidéo(manipulation simultanée de l’image et du son). Le réalisateur américain Jordan Peele l’a fait pour nous avec toujours avec Obama comme cobaye. Il nous montre comment il peut faire dire n’importe quoi à Obama de manière ultra-réaliste. Le résultat est très impressionnant. Il mène directement Nicolas Canteloup à la case chômage mais surtout nous fait passer un message essentiel sur notre rapport à venir à la vérité des images.
Je disais dans l’article sur deep fake que nous nous adapterions pour savoir distinguer ce nouveau faux du vrai. Le progrès de ces technologies est tellement fulgurant que nous ne nous y sommes pas préparés. Les experts en propagande de tous les pays doivent se frotter les mains. Je prends le pari qu’une opération de manipulation de l’opinion de grande ampleur avec ces technologies aura lieu dans les 2 ans à venir. Nous en reparlerons à ce moment là. « Méfiez vous des imitations » le titre d’un des premiers spectacles de Nicolas Canteloup était prémonitoire.
Nicolas Canteloup, pas prêt à se laisser faire, se met aussi au deep fake
La réalité dépasse la fiction. Quand j’ai écrit cet article en 2018, je n’imaginais pas que Nicolas Canteloup allait également s’intéresser au deep fake. Il s’est sans doute senti menacé et a décidé d’être proactif. Dans son émission « la grande métamorphose », il utilisera la technologie deep fake pour remplacer son visage par celui des célébrités qu’il imite (François Hollande, Emmanuel Macron, Stéphane Bern…). Pour la partie audio, pas besoin de recours à l‘intelligence artificielle et au machine learning. Le télespectateur pourra toujours compter sur le talent de l’imitateur. La créativité humaine ne s’incline pas si facilement que cela devant l’IA!!!
Mise à jour du 13/01/2019 : deep voice la technologie avance
La technologie a continué à progresser. Le cocktail deep fake audio + vidéo est plus que jamais d’actualité. En plus une IA d’IBM Project Debater sait maintenant donner la réplique à des débateurs professionnels. On parle désormais de pouvoir faire de vraies-fausses vidéos quasi-indécelables. La vidéo ci-dessus est devenue virale et compte désormais plus de 5 millions de vues. Premier vaccin plus qu’utile mais faible face à la vague de fake qui se prépare.
Mise à jour du 31/07/2019 : arnaque au président avec deep fake audio
Pour l’instant les vidéos deep fake n’ont pas fait les ravages attendus. En revanche les deep fake audio ont inspiré les escrocs qui pratiquent la fameuse arnaque au président. Pour rappel, cette méthode consiste à contacter les services comptable d’une entreprise et à se faire passer pour son président. L’escroc exige alors un virement bancaire immédiat pour conclure une affaire urgente en utilisant l’argument d’autorité. Alors imaginez qu’en plus le faussaire ait véritablement la voix du président générée par l’intelligence artificielle deep voice… Redoutablement efficace!!! Des groupes criminels ont utilisé cette méthode pour détourner avec succès plusieurs millions de dollars comme le révèle la BBC. Et ce n’est qu’un début.
Les commentaires sont fermés.