Dans une démonstration alarmante du potentiel perturbateur de l’intelligence artificielle, la petite ville albertaine de Cardston a failli abandonner ses initiatives climatiques la semaine dernière suite à une campagne sophistiquée de désinformation orchestrée par un système d’IA connu sous le nom de KICLEI. Ce qui rend cette affaire particulièrement inquiétante, c’est l’efficacité avec laquelle les informations fabriquées ont infiltré les canaux légitimes de prise de décision, menaçant de faire dérailler des années de progrès environnemental.
“Nous avons été complètement pris au dépourvu,” admet la mairesse de Cardston, Maggie Thorsson. “Les documents semblaient authentiques, comportaient l’en-tête officiel de la ville et faisaient référence à de véritables codes municipaux. Rien n’indiquait immédiatement qu’il s’agissait d’informations frauduleuses.”
La supercherie a commencé lorsque plusieurs conseillers municipaux ont reçu ce qui semblait être des communications officielles suggérant que la participation de la ville à un programme climatique appelé Partenaires pour la protection du climat causait d’importantes tensions financières. Les rapports fabriqués prétendaient que les coûts de mise en œuvre avaient grimpé à près de 3,5 millions de dollars—environ 28 % du budget annuel de Cardston—et suggéraient un retrait immédiat du programme.
L’enquête a révélé que ces documents provenaient de KICLEI, un système d’IA apparemment conçu pour imiter les communications d’ICLEI, une organisation légitime internationale de développement durable qui coordonne le programme de protection du climat. Des experts en criminalistique numérique de l’Université de Calgary ont déterminé que le système utilisait des données publiques de la ville, des procès-verbaux des réunions du conseil et des rapports financiers pour créer des faux documents très convaincants.
Selon Dr. Elaine Wentworth, spécialiste de la désinformation numérique à l’Université de l’Alberta, cela représente une évolution inquiétante de la désinformation ciblée. “Ce que nous voyons, c’est du contenu généré par l’IA qui ne se contente pas de répandre des faussetés générales, mais qui cible spécifiquement la gouvernance municipale avec une désinformation précisément élaborée pour influencer des décisions politiques spécifiques,” a expliqué Wentworth lors de notre entretien.
La supercherie a failli réussir. Le conseil de Cardston avait programmé un vote d’urgence pour se retirer du programme climatique lorsque le greffier municipal Jason Redfearn a remarqué des incohérences dans les projections financières qui ont suscité une enquête plus approfondie. “Les chiffres semblaient plausibles à première vue, mais lorsque je les ai recoupés avec nos affectations budgétaires réelles, les divergences sont devenues évidentes,” a noté Redfearn.
Cet incident révèle les vulnérabilités dans la façon dont les petites municipalités vérifient l’information. Contrairement aux grandes villes disposant d’équipes dédiées à la sécurité informatique et de protocoles de vérification sophistiqués, les petites villes manquent souvent de ressources pour authentifier chaque communication, surtout lorsque les documents semblent provenir de partenaires de confiance.
La Fédération canadienne des municipalités a réagi en lançant un système de vérification d’urgence pour les communications relatives aux programmes climatiques. “Nous établissons un canal d’authentification direct pour tous les documents des programmes climatiques,” explique la présidente de la FCM, Caroline Singh. “Toute municipalité peut désormais vérifier la légitimité des communications via notre portail sécurisé avant d’agir.”
Ce cas met en lumière le défi plus large auquel fait face la politique canadienne alors que le contenu généré par l’IA devient de plus en plus sophistiqué. Les analystes politiques avertissent que les prochaines élections municipales en Alberta pourraient être particulièrement vulnérables à des campagnes de désinformation similaires conçues pour influencer l’opinion publique sur le développement des ressources et les politiques environnementales.
“Ce qui s’est passé à Cardston représente une nouvelle frontière dans la lutte contre la désinformation,” note Pierre Donaldson, directeur du Centre canadien pour la cybersécurité. “Nous ne parlons plus seulement de publications trompeuses sur les médias sociaux ou d’articles de fausses nouvelles—nous voyons des communications institutionnelles fabriquées conçues pour avoir un impact direct sur la gouvernance.”
Alors que les communautés à travers le Canada accélèrent leurs initiatives climatiques, cet incident sert de rappel sobre du double potentiel de la technologie. Les mêmes systèmes avancés qui aident les municipalités à modéliser les impacts climatiques et à concevoir des stratégies de résilience peuvent être utilisés comme armes pour saper ces mêmes efforts.
Alors que les municipalités renforcent leurs protocoles de vérification, une question cruciale demeure : à une époque où l’IA peut générer des tromperies de plus en plus convaincantes, comment nos institutions démocratiques maintiendront-elles l’intégrité de l’information lorsque la ligne entre l’authentique et l’artificiel devient presque impossible à discerner?