► Pourquoi cette expérience s’est-elle arrêtée ?
Après quatre jours de palabre, un deepfake (« hypertruquage ») d’Emmanuel Macron réalisé par intelligence artificielle (IA) s’est arrêté de parler, mardi 29 août. La plateforme Twitch, qui diffusait ce live (« vidéo en direct ») depuis le 25 août, l’a suspendu pour cause de « discours haineux violent ».
— Anis Ayari | Defend Intelligence (@DFintelligence) August 29, 2023Vous pouvez me bannir injustement, mais vous n'aurez pas ma liberté de coder !!
Aprés un peu de modif dans le code pour l'adapter à la plateforme, les bots IA sont de retour sur @Kick_FR !! pic.twitter.com/LkfjrryInW
Entre deux questions adressées par des internautes à l’avatar du président sur son patrimoine financier ou encore la réforme des retraites, quelqu’un lui a demandé quels étaient les pires noms de villages français. Réponse du « faux » Emmanuel Macron : La Mort-aux-Juifs, un hameau du Loiret débaptisé en 2015.
La chaîne DefendIntelligence, sur laquelle ce live était diffusé, a immédiatement été bannie de Twitch. Son créateur, l’ingénieur français Anis Ayari, a déclaré sur X (ex-Twitter) avoir fait appel de la décision. Il a relancé son live sur la plateforme concurrente kick.com.
► Pourquoi de tels avatars de personnalités ?
Outre le président Macron, Charles de Gaulle a aussi été parodié sur la même chaîne. Posture solennelle et diction caractéristique : la ressemblance avec le « vrai » général est saisissante, avec un décalage comique entre son image et les paroles prononcées, volontiers anachroniques.
Devaient suivre des avatars de Jacques Chirac, Coluche ou encore Elon Musk – des personnages qu’Anis Ayari souhaite « faire débattre » les uns avec les autres.
Par ces parodies virales, l’ingénieur aux 134 000 abonnés sur YouTube (et 36 000 sur Twitch) dit vouloir sensibiliser le grand public aux risques de désinformation. « Je montre que c’est possible pour justement mettre en garde », a-t-il déclaré au média Stratégies. Lui-même a été surpris du succès fulgurant de ses « faux » présidents, avec lesquels plus de 2 millions de messages ont été échangés en quelques jours.
► Comment ces truquages fonctionnent-ils ?
« Cela fait dix ans qu’on sait assez bien les faire, et cinq ans qu’on sait très bien les faire », résume Nicolas Sabouret, professeur en informatique à l’université Paris Saclay. À partir d’images et de vidéos d’une personne, on élabore un modèle numérique qu’on peut animer à volonté. Et contrairement aux faux des années 2000, qui juxtaposaient des éléments réels pour un résultat haché, les systèmes actuels sont capables de « combler les trous » pour plus de fluidité.
À lire aussiIntelligence artificielle : de Turing à ChatGPT, comment les ordinateurs ont appris à parler
Le contenu du discours, lui, est généré par l’agent conversationnel ChatGPT. « Le système est entraîné avec des données générales ; ensuite, l’ingénieur affine sa requête en précisant “à la manière de Macron” ou “sur un ton sarcastique” », explique Nicolas Sabouret.
► Quels problèmes éthiques et juridiques cela soulève-t-il ?
La question s’est déjà posée, notamment quand Thierry Ardisson a lancé en 2022 son émission « L’hôtel du temps » pour faire revivre des stars du passé. Faire réagir un défunt au temps présent, et prolonger ainsi son existence après sa mort, n’a bien sûr rien d’anodin…
Mais juridiquement, rien ne s’y oppose. « À moins d’atteindre à la mémoire du mort, par exemple en le faisant apparaître dans un film p*rnographique », précise Arnaud Latil, maître de conférences en droit à Sorbonne Université. Pour les vivants, pas non plus d’obstacle majeur : « Le droit à la caricature existe depuis longtemps, en particulier pour les personnalités politiques », rappelle le spécialiste.
À lire aussiChatGPT : « Alors que les nouvelles technologies bouleversent nos sociétés, leur régulation est arriérée »
Ces deepfakes ont toutefois peu à voir avec « Les Guignols de l’info ». Et si la supercherie reste pour l’heure identifiable, notamment au flou du mouvement des lèvres, cela sera de moins en moins le cas. « Les risques d’usage à des fins de désinformation sont d’autant plus grands que ces technologies sont accessibles facilement, et pour un coût très faible », précise Olivier Ertzscheid, enseignant-chercheur en sciences de l’information à l’université de Nantes.
L’ingénieur Anis Ayari dit avoir payé 150 € par jour pour générer ses « faux » présidents. « Le coût réel est bien plus élevé », précise l’universitaire, qui rappelle que des entreprises comme OpenAI, qui développe ChatGPT, acceptent dans un premier temps de fonctionner à perte afin de voir leurs technologies se répandre massivement… avant de se mettre à facturer leur usage.