Usurpations d’identité, deepfakes, les voix générées par l’IA sources d’arnaques de plus en plus nombreuses

Selon la Federal Trade Commission, un organisme de défense des consommateurs, les escroqueries par usurpation d’identité étaient les plus nombreuses en 2022. Certains ont ainsi perdu beaucoup d’argent à cause d’escroqueries téléphoniques, parfois les économies de toute une vie. Or, les modèles d’IA de synthèse vocale sont de plus en plus perfectionnés, à l’instar de VALL-E publié en janvier dernier par Microsoft, ce qui fait craindre que les escroqueries par clonage de voix ne se répandent…

Les escrocs n’ont pas attendu l’arrivée des IA génératives de voix pour tenter d’arnaquer les gens par téléphone mais la sophistication de ces dernières leur permet d’être plus convaincants. Les victimes, placées dans un état de stress à cause de l’urgence prétendue, n’ont plus le temps de réfléchir et effectuent les paiements qui sont eux aussi facilités par la technologie aujourd’hui.

L’un des premiers cas d’arnaque par clonage vocal grâce à l’IA signalés, date de mars 2019. Le PDG d’une société d’énergie au Royaume-Uni a cru parler au téléphone avec un supérieur hiérarchique, le directeur général de la société mère allemande de l’entreprise, qui lui a demandé d’envoyer en urgence 243 000 $ à un fournisseur hongrois. Ce qu’il a fait, certain de reconnaître l’accent et l’intonation de son patron. Lorsqu’on lui a demandé de faire un 2ème virement, le doute s’était insinué et il n’a pas effectué le second transfert de fonds demandé, mais l’argent viré n’a pas été retrouvé, les suspects n’ont pas été identifiés.

L’année suivante, c’est un directeur de banque qui s’est fait abusé par le clonage de voix : on lui a fait croire que le PDG d’une entreprise sur le point de faire une acquisition lui demandait de débloquer 35 millions de dollars par virement.

Bien que connaissant ce chef d’entreprise, le banquier des Emirats Arabes Unis, rassuré par les mails de confirmation, n’a pas douté de l’identité de l’auteur de l’appel et a donné l’ordre d’effectuer le virement.

L’arnaque au président de plus en plus répandue

“L’arnaque au président” consiste à voler l’identité d’un dirigeant d’entreprise et à faire effectuer un faux ordre de virement par un salarié, comme ça a été le cas pour le PDG de la société basée au Royaume-Uni cité plus haut. Cette escroquerie peut être réalisée uniquement par mail, mais réalisée par téléphone, elle se perfectionne grâce au clonage de voix et à la collecte d’informations sur les employés sur les réseaux sociaux.

Le chantage aux sentiments

On a vu qu’un des éléments de réussite de ces escroqueries est l’urgence dans laquelle on place les victimes, si l’un de leurs amis ou, mieux encore, un membre de leur famille fait partie du scénario inventé par les malfaiteurs, elles ont alors toutes les chances de réussir…

Pour cloner une voix, il suffit aux escrocs d’aller récupérer des messages audio sur Tik Tok, YouTube ou Facebook, alors qu’il fallait des audios de 30 secondes, avec des modèles comme VALL-E, il n’en faut plus que 3…

Le Washington Post rapporte l’escroquerie dont a été victime un couple de personnes âgées au Canada. Un soi-disant avocat leur a téléphoné, leur faisant croire que leur fils avait tué un diplomate américain dans un accident de voiture, qu’il était en prison et avait besoin d’argent pour payer les frais juridiques. Le couple, bouleversé par la nouvelle, a entendu ou plutôt cru entendre, son fils confirmer les dires de l’avocat et les assurer de son amour…

L’audience devait avoir lieu le jour même, il lui fallait en urgence 21 000 $ en dollars canadiens. Affolés, les parents ont envoyé l’argent à l’avocat via un terminal bitcoin.

Un autre couple de personnes âgées, à Regina, a bien failli être berné lui aussi : on lui a fait croire que son petit-fils était responsable d’un accident mais que, s’il donnait une certaine somme rapidement pour couvrir les dégâts matériels, aucune plainte ne serait portée contre lui. Eux aussi ont paniqué, ils se sont précipités pour trouver l’argent, mais heureusement pour eux, le directeur de la banque les a prévenus de l’arnaque, la veille même, il avait d’ailleurs reçu un autre couple avec une histoire similaire…

Comment éviter ce nouveau genre d’escroqueries ?

Les banques utilisent parfois la voix comme mot de passe mais il y a des mesures mises en place pour détecter les enregistrements vocaux. Cependant, comment pouvons-nous, en tant que particuliers, savoir si nous avons affaire à un clone vocal alors que différents logiciels comme celui de la start-up de synthèse vocale EvenLabs, créée l’an passé, sont disponibles ?

Selon la Federal Trade Commission, il est très difficile de retrouver la trace des escrocs qui les utilisent, il leur suffit d’un téléphone et peuvent se trouver à l’autre bout du monde. Pour elle, la seule solution efficace est de ne jamais répondre à une demande d’argent par téléphone…

Recevez gratuitement l'actualité de l'intelligence artificielle

Suivez la Newsletter de référence sur l'intelligence artificielle (+ de 18 000 membres), quotidienne et 100% gratuite.


Tout comme vous, nous n'apprécions pas le spam. Vos coordonnées ne seront transmises à aucun tiers.

1ère Marketplace de l'IA et de la transformation numérique vous recommande :
Aloception par Visual Behavior

Aloception recentre l'intelligence des robots autonomes sur le degré de compréhension de leur système de vision plutôt que sur les capteurs et les bas...

 
Partager l'article
Offre exclusive : 1 an d'abonnement au magazine ActuIA + Le guide pratique d'adoption de l'IA en entreprise pour seulement 27,60€ Boutique ActuIA Pour tout abonnement à ActuIA, recevez en cadeau le Guide Pratique d'Adoption de l'IA en Entreprise, d'une valeur de 23€ !
intelligence artificielle
À PROPOS DE NOUS
Le portail francophone consacré à l'intelligence artificielle et à la datascience, à destination des chercheurs, étudiants, professionnels et passionnés.