la technologie de clonage vocal fait son apparition dans la guerre civile au Soudan
Une campagne utilisant l’intelligence artificielle pour se faire passer pour Omar al-Bashir, l’ancien dirigeant du Soudan, a reçu des centaines de milliers de vues sur TikTok, ajoutant à la confusion en ligne dans un pays déchiré par la guerre civile.
Un compte anonyme publie depuis fin août ce qu’il dit être des « fuites d’enregistrements » de l’ex-président. La chaîne a posté des dizaines de clips – mais la voix est fausse.
Bashir, accusé d’avoir organisé des crimes de guerre et renversé par l’armée en 2019, n’a pas été vu en public depuis un an et serait gravement malade. Il nie les accusations de crimes de guerre.
Le mystère entourant sa localisation ajoute une couche d’incertitude dans un pays en crise après que des combats ont éclaté en avril entre l’armée, actuellement aux commandes, et la milice rivale des Forces de soutien rapide.
Selon les experts, des campagnes comme celle-ci sont importantes car elles montrent comment de nouveaux outils peuvent diffuser de faux contenus rapidement et à moindre coût via les réseaux sociaux.
“C’est la démocratisation de l’accès aux technologies sophistiquées de manipulation audio et vidéo qui m’inquiète le plus”, déclare Hany Farid, chercheur en criminalistique numérique à l’Université de Californie à Berkeley, aux États-Unis.
“Des acteurs sophistiqués sont capables de déformer la réalité depuis des décennies, mais désormais, une personne moyenne possédant peu ou pas d’expertise technique peut créer rapidement et facilement de faux contenus.”
Les enregistrements sont publiés sur une chaîne appelée The Voice of Sudan. Les messages semblent être un mélange d’anciens extraits de conférences de presse lors de tentatives de coup d’État, de reportages et de plusieurs « enregistrements divulgués » attribués à Bashir. Les messages prétendent souvent provenir d’une réunion ou d’une conversation téléphonique et semblent granuleux, comme on peut s’y attendre d’une mauvaise ligne téléphonique.
Pour vérifier leur authenticité, nous avons d’abord consulté une équipe d’experts soudanais de BBC Monitoring. Ibrahim Haithar nous a dit qu’ils ne seraient probablement pas récents :
“La voix ressemble à celle de Bashir, mais il est très malade depuis quelques années et il doute qu’il soit capable de parler aussi clairement.”
Cela ne veut pas dire que ce n’est pas lui.
Nous avons également vérifié d’autres explications possibles, mais il ne s’agit pas d’un vieux clip qui refait surface et il est peu probable qu’il soit l’œuvre d’un impressionniste.
La preuve la plus concluante est venue d’un utilisateur de X, anciennement Twitter.
Ils ont reconnu le tout premier enregistrement de Bashir posté en août 2023. On y voit le leader critiquant le commandant de l’armée soudanaise, le général Abdel Fattah Burhan.
L’enregistrement de Bashir correspond à une émission en direct sur Facebook diffusée deux jours plus tôt par un commentateur politique soudanais populaire, connu sous le nom d’Al Insirafi. Il vivrait aux États-Unis mais n’a jamais montré son visage devant une caméra.
La paire ne se ressemble pas particulièrement, mais les scripts sont les mêmes et lorsque vous lisez les deux clips ensemble, ils sont parfaitement synchronisés.
La comparaison des ondes audio montre des schémas similaires dans la parole et le silence, note M. Farid.
Les preuves suggèrent qu’un logiciel de conversion vocale a été utilisé pour imiter le discours de Bashir. Le logiciel est un outil puissant qui vous permet de télécharger un morceau d’audio, qui peut être modifié en une voix différente.
Après avoir creusé davantage, une tendance est apparue. Nous avons trouvé au moins quatre autres enregistrements de Bashir, tirés des émissions en direct du même blogueur. Il n’y a aucune preuve de son implication.
Le compte TikTok est exclusivement politique et nécessite une connaissance approfondie de ce qui se passe au Soudan, mais qui profite de cette campagne est sujet à débat. Un récit cohérent est la critique du chef de l’armée, le général Burhan.
La motivation pourrait être de faire croire au public que Bashir est apparu pour jouer un rôle dans la guerre. Ou encore, la chaîne pourrait tenter de légitimer un point de vue politique particulier en utilisant la voix de l’ancien dirigeant. On ne sait pas exactement quel pourrait être cet angle.
La Voix du Soudan nie avoir induit le public en erreur et affirme qu’elle n’est affiliée à aucun groupe. Nous avons contacté le compte et avons reçu une réponse par SMS disant : “Je veux communiquer ma voix et expliquer la réalité que vit mon pays avec mon style.”
Un effort de cette ampleur pour usurper l’identité de Bashir peut être considéré comme « important pour la région » et risque de tromper le public, déclare Henry Ajder.
Les experts en IA craignent depuis longtemps que les faux enregistrements vidéo et audio ne conduisent à une vague de désinformation susceptible de déclencher des troubles et de perturber les élections.
“Ce qui est alarmant, c’est que ces enregistrements pourraient également créer un environnement dans lequel beaucoup ne croient même pas aux enregistrements réels”, déclare Mohamed Suliman, chercheur au Civic AI Lab de la Northeastern University.
Comment détecter la désinformation basée sur l’audio ?
Comme nous l’avons vu avec cet exemple, les gens devraient se demander si l’enregistrement semble plausible avant de le partager.
Vérifier s’il a été diffusé par une source fiable est essentiel, mais vérifier l’audio est difficile, en particulier lorsque le contenu circule sur des applications de messagerie. C’est encore plus difficile en période de troubles sociaux, comme celui que connaît actuellement le Soudan.
La technologie permettant de créer des algorithmes entraînés à détecter l’audio synthétique en est encore aux tout premiers stades de développement, tandis que la technologie permettant d’imiter les voix est déjà assez avancée.