Les outils de clonage de voix se développent progressivement. En 2016, Adobe annonçait l’arrivée de VoCo, le premier logiciel d’hypertrucage audio, qui peut cloner la voix en 20 minutes.
En 2017, la startup LyreBird avait réussi à cloner les voix de Barack Obama et de Donald Trump, pour créer une conversation, indique le site blogdumoderateur.com. Les outils n’ont dès lors cessé de s’améliorer.
En janvier 2023, le logiciel ElevenLabs, créé par un ancien ingénieur de chez Google, est en mesure de cloner n’importe quelle voix à partir d’un extrait d’une minute seulement.
Microsoft travaille aussi sur un modèle de clonage de voix par intelligence artificielle (IA) nommé VALL-E. De son côté, Apple propose une technologie similaire, Personal Voice.
Cependant, lorsqu’une technologie se développe, des utilisations malveillantes font leur apparition. L’émergence du clonage de voix fait planer diverses menaces, comme le développement de nouvelles formes de fake news et d’arnaques, ou l’utilisation de voix d’artistes sans leur consentement.