Dans une histoire digne d’un film de science-fiction, un entrepreneur chinois du nom de M. Guo a été la cible d’une escroquerie élaborée. En avril dernier, M. Guo a reçu un appel vidéo d’un individu dont l’apparence et la voix étaient quasiment identiques à celles d’un de ses proches. Ce n’était cependant pas son ami à l’autre bout de la ligne, mais un escroc habile, utilisant une technologie d’intelligence artificielle avancée pour altérer son apparence et sa voix, selon un article publié par un média local affilié aux autorités de Fuzhou, à l’est de la Chine.
L’escroc a profité de cette ressemblance pour persuader M. Guo qu’un autre ami avait un besoin urgent d’argent pour payer une caution dans le cadre d’un appel d’offres. M. Guo a été convaincu par le récit de l’escroc et a transféré 4,3 millions de yuans (environ 570 000 euros) depuis le compte bancaire de son entreprise. Ce n’est qu’après avoir effectué le virement et contacté l’ami dont l’identité avait été usurpée que M. Guo a réalisé son erreur. À ce moment-là, il a immédiatement alerté la police.
Malheureusement, l’escroquerie a été découverte trop tard pour récupérer l’intégralité des fonds, mais grâce à l’intervention rapide de la police et de la banque, M. Guo a pu récupérer 3,4 millions de yuans (450 000 euros). Les auteurs de l’escroquerie restent non identifiés. Cet incident souligne l’usage croissant et malveillant de l’intelligence artificielle dans la fraude. Suite à ce cas, les autorités chinoises ont annoncé une réglementation plus stricte de l’usage de l’IA et des technologies de manipulation d’image, comme les deepfakes. En plus de cela, une « inspection de sécurité » sera imposée aux outils basés sur l’IA développés en Chine.