La résurgence des Beatles grâce à une nouvelle chanson produite par l’IA a suscité l’enthousiasme du monde de la musique. Cette technique innovante d’IA fusionne des parties d’anciens enregistrements et améliore leur qualité sonore.
Toutefois, cette avancée technologique présente un revers de médaille. Les mêmes capacités d’IA pourraient être utilisées à mauvais escient pour créer de fausses voix et de fausses images, ce qui suscite de vives inquiétudes quant à son potentiel en matière d’activités frauduleuses.
Kaspersky fait la lumière sur les implications des deep fakes et propose des conseils pour s’en prémunir :
Comprendre les imitations profondes de voix
Le modèle Audio API d’Open AI se distingue par le fait qu’il génère des voix humaines à partir d’entrées textuelles.
Bien qu’il ne produise pas actuellement de fausses voix profondes, il met en évidence les progrès rapides de la technologie de génération de voix.
Aucun dispositif ne peut créer une fausse voix profonde parfaite, indiscernable d’une voix humaine naturelle. Toutefois, ces derniers mois ont vu l’émergence d’outils plus accessibles pour la génération de voix, ce qui laisse présager de futurs modèles qui pourraient offrir à la fois une facilité d’utilisation et des résultats de haute qualité.
Les cas de fraude basés sur l’IA sont rares, mais ils ne sont pas inconnus. Le capital-risqueur Tim Draper a récemment alerté ses abonnés sur Twitter au sujet de l’utilisation potentiellement abusive de sa voix dans des escroqueries, soulignant ainsi la sophistication croissante des technologies de l’IA.