La voix de la dame âgée tremblait de panique. “S’il te plaît, aide-moi, je suis en prison,” sanglotait-elle au téléphone avec son petit-fils. Mais ce n’était pas sa grand-mère qui appelait—c’était un clone de sa voix généré par l’IA, créé à partir de vidéos sur les réseaux sociaux et manipulé par des fraudeurs qui ont failli extorquer 15 000 $ à la famille sous le choc. Ce scénario, autrefois confiné à la science-fiction, est devenu une réalité alarmante à travers le Canada alors que l’intelligence artificielle transforme le paysage de la fraude financière.
“Nous assistons à un changement fondamental dans la façon dont les arnaqueurs opèrent,” explique Daniel Markham, directeur de la cybersécurité au Bureau canadien de protection financière. “Les outils d’IA ont démocratisé des techniques de fraude sophistiquées qui nécessitaient auparavant des connaissances techniques approfondies. Maintenant, n’importe qui avec des compétences informatiques de base peut créer des hypertrucages convaincants ou cloner des voix avec une précision effrayante.”
Les statistiques dressent un tableau inquiétant. Selon le Centre antifraude du Canada, les arnaques améliorées par l’IA ont augmenté de 340 % depuis 2023, avec des pertes dépassant 98 millions de dollars au premier trimestre de 2025 seulement. Ce ne sont pas seulement des attaques plus fréquentes—elles sont plus intelligentes, plus personnalisées et de plus en plus difficiles à détecter.
Les signaux d’alarme traditionnels qui aidaient autrefois les consommateurs à identifier les arnaques—mauvaise grammaire, salutations génériques ou domaines de courriel suspects—disparaissent. Les fraudeurs d’aujourd’hui propulsés par l’IA créent des courriels parfaits qui imitent le ton et le format institutionnels, génèrent des photos de profil réalistes pour de faux conseillers en investissement, et même clonent les voix des membres de la famille ou des professionnels de la finance.
“Ce qui rend ces attaques si efficaces, c’est leur précision émotionnelle,” explique Dr. Samantha Chen, experte en criminalistique numérique à l’Université de la Colombie-Britannique. “L’IA analyse votre empreinte numérique pour comprendre exactement quels messages vous inciteront à agir impulsivement plutôt que prudemment. La technologie peut déterminer si la peur, l’avidité ou la confiance sera la plus efficace dans votre cas particulier.”
Pour Michael Torres, résident de Vancouver, cette personnalisation s’est avérée coûteuse. Après avoir discuté de projets de vacances sur les réseaux sociaux, il a reçu ce qui semblait être un courriel légitime de son site de réservation habituel offrant une remise à durée limitée sur sa destination de rêve spécifique. “Tout semblait parfait—le site web, les courriels de confirmation, même le représentant du service client à qui j’ai parlé,” se souvient Torres. “J’ai perdu 4 300 $ et mes données personnelles avant de réaliser qu’il s’agissait d’une opération d’arnaque élaborée utilisant ma propre trace numérique contre moi.”
Les institutions financières se précipitent pour s’adapter. La Banque Royale du Canada a mis en œuvre un logiciel de détection d’IA qui analyse les modèles comportementaux pour signaler les transactions inhabituelles, tandis que la Banque TD a lancé un système de vérification nécessitant plusieurs méthodes d’authentification pour les transferts importants. Mais les experts préviennent que ces mesures pourraient ne pas être suffisantes à mesure que la technologie évolue.
“Nous sommes dans une course aux armements,” dit Markham. “À mesure que les outils de détection s’améliorent, les capacités des arnaqueurs progressent aussi. Le développement le plus préoccupant est la manipulation par IA en temps réel pendant les appels téléphoniques ou les discussions vidéo, où les algorithmes ajustent les réponses des arnaqueurs en fonction des réactions des victimes.”
Se protéger nécessite une approche à plusieurs niveaux. Les experts recommandent d’implémenter des paramètres de confidentialité stricts sur les réseaux sociaux, d’utiliser différents mots de passe pour les comptes financiers, d’activer l’authentification à deux facteurs et, surtout, de créer des protocoles de vérification avec les membres de la famille pour les demandes d’urgence. Les institutions financières suggèrent également d’imposer des délais de 24 heures sur les transactions inhabituelles et d’utiliser des appareils dédiés pour les activités bancaires.
Le gouvernement canadien a proposé des cadres réglementaires pour lutter contre la fraude assistée par l’IA, notamment des divulgations obligatoires lorsque l’IA est utilisée dans les interactions avec les clients et des sanctions pénales pour la création d’hypertrucages à intention frauduleuse. Cependant, la nature transfrontalière de ces crimes complique l’application de la loi.
Alors que l’IA continue d’évoluer, le paysage des finances personnelles fait face à des défis sans précédent. La technologie qui promet de rendre nos vies financières plus efficaces crée également de nouvelles vulnérabilités. La défense la plus efficace pourrait être un retour à quelque chose de résolument low-tech: le scepticisme et la volonté de vérifier les informations par les canaux officiels avant d’agir.
“Quand mon ‘petit-fils’ a appelé pour demander de l’argent de caution, quelque chose me semblait bizarre malgré à quel point ça ressemblait à sa voix,” raconte Eleanor Whitfield, qui a évité de justesse de devenir une victime. “Je lui ai dit que je le rappellerais, puis j’ai utilisé son vrai numéro dans mes contacts. Cette simple étape m’a épargné des milliers de dollars—et c’est quelque chose qu’aucune IA ne peut actuellement contourner.”
Pour plus d’informations sur la protection contre la fraude financière, visitez CO24 Affaires pour notre couverture continue des tendances en cybersécurité et des stratégies de protection des consommateurs.