Mise à jour hebdomadaire 2 | Vendredi 4  mars

Cette mise à jour hebdomadaire sur l’élection canadienne présente les principales tendances et dynamiques observées dans l’écosystème de l'information (Aperçu), met en lumière des incidents d'information et des menaces émergentes (Incidents), et partage du contenu éducatif, des résultats de recherche et d’autres ressources pertinentes produites par notre Coalition pour la résilience de l’écosystème de l'information (Mise à jour).  
Tous les faits et données sont tirés d’un sondage original et d’une collecte d’information sur les médias sociaux menée par l’Observatoire de l’écosystème médiatique. L’analyse couvre la période du 28 mars au 3 avril. Cette semaine, nous avons signalé un nouvel incident mineur et suivons trois incidents mineurs survenus la semaine dernière. Aucun incident de niveau modéré ou majeur n’a été identifié.


APERÇU 

L’élection fédérale de 2025 se déroule dans un climat marqué par un regain d’attention — et de méfiance — envers les acteurs étrangers susceptibles d’intervenir dans la politique canadienne et de manipuler notre écosystème de l'information. La semaine dernière, nous avons rapporté que 68 % des Canadiens se disaient plus inquiets de l’ingérence étrangère en provenance des États-Unis que de celle d’autres pays. L’ingérence étrangère a déjà occupé une place importante dans l’actualité cette année. La Commission d’enquête publique sur l’ingérence étrangère dans les processus électoraux et les institutions démocratiques fédéraux a publié son rapport final, désignant la désinformation comme la plus grande menace à la démocratie. Le Mécanisme de réponse rapide d’Affaires mondiales Canada a révélé une opération d'information visant Chrystia Freeland pendant la course à la direction du Parti libéral. De plus, les chefs du Parti libéral, du NPD et du Bloc québécois ont critiqué le chef du Parti conservateur, Pierre Poilievre, pour ne pas avoir obtenu sa cote de sécurité. 

Le graphique ci-dessous montre l’évolution de l’engagement en ligne envers les publications de figures d’opinion canadiennes influentes sur la manipulation de l'information et l’ingérence étrangère au cours des trois derniers mois. Cet engagement est exprimé en pourcentage de l’ensemble des interactions générées par tout le contenu publié par ces comptes (800 000 publications ayant généré 330 millions d’interactions au total). Même si les trois événements mentionnés ont provoqué des hausses dans les discussions en ligne, aucun n’a suscité autant d’engagement que les premiers jours de la campagne.

Dès le troisième jour de la campagne électorale (le 25 mars), plus de 8 % de l’ensemble de l’engagement en ligne envers les figures d’opinion canadiennes portait sur du contenu lié à l’ingérence étrangère et à la manipulation de l'information. Cette hausse marquée a été alimentée par la convergence de plusieurs événements d’envergure : 

  • Le Globe and Mail a publié un reportage fondé sur une source confidentielle du Service canadien du renseignement de sécurité (SCRS), alléguant que des agents indiens auraient secrètement tenté d’aider Pierre Poilievre à remporter la course à la direction du Parti conservateur en 2022, à son insu.

  • Interrogé sur ces allégations lors d’un point de presse tenu en matinée, Poilievre a esquivé en accusant plutôt le chef du Parti libéral, Mark Carney, d’entretenir des liens avec le gouvernement chinois par le biais d’activités commerciales liées à son rôle de président de Brookfield à l’automne 2024. 

  • Parallèlement, l’entrevue de Danielle Smith sur Breitbart — où elle a évoqué les tarifs américains et la possibilité de les suspendre jusqu’après les élections en raison de leur impact dans les sondages — a suscité un vif intérêt sur les réseaux sociaux. Plusieurs utilisateurs l’ont alors accusée d’avoir demandé aux États-Unis d’interférer dans l’élection.

Au cours de la dernière semaine, les discussions sur l’ingérence étrangère ont repris de plus belle après que le député sortant libéral Paul Chiang ait suggéré que les gens dénoncent son adversaire conservateur au consulat chinois afin de réclamer la prime placée sur sa tête par le gouvernement chinois. Ce type de primes s’inscrit dans une tendance plus large de tactiques de répression transnationale employées par des États étrangers, en particulier la Chine. Les propos de Chiang ont suscité une vague d’indignation en ligne, qui a culminé avec sa démission le 1er avril. Durant cette même période, de nombreuses affirmations concernant les liens entre Mark Carney et le gouvernement chinois ont connu une augmentation marquée de l’engagement en ligne. Nous continuons d’analyser ces conversations publiques à la recherche de signes de manipulation ou d’ingérence non authentique, mais à ce stade, nous considérons que les discussions sont organiques. D’autres candidats ont été écartés en raison d’une perception d’alignement avec des États étrangers. On observe également une forte activité en ligne remettant en question les relations passées et actuelles de plusieurs candidats avec l’Inde et la Chine. 

À mesure que la campagne électorale progresse, nous poursuivrons notre surveillance de l’écosystème de l'information en ligne afin de repérer toute tentative coordonnée de manipulation de l’information par des acteurs malveillants ou étrangers.


INCIDENTS D’INFORMATION

Pendant la campagne électorale, nous rendons compte des incidents d'information susceptibles d’induire le public en erreur et de perturber le processus démocratique. De manière générale, nous nous concentrons sur les tentatives de manipulation de l'information menées de façon clandestine ainsi que sur les efforts d’ingérence étrangère, par opposition aux actions d’influence, qui sont par définition ouvertes et publiques. Cette semaine, nous signalons un nouvel incident mineur et faisons le suivi de trois incidents mineurs survenus la semaine dernière (dont deux sont maintenant clos). Cliquez ici pour en savoir plus sur nos seuils d’intervention en cas d’incident.

NOUVEAUX INCIDENTS

▶️ Comptes suspects à l’origine de la désinformation Carney-Epstein

Nous enquêtons actuellement sur les origines en ligne d’une fausse histoire liant le chef libéral Mark Carney au délinquant sexuel condamné Jeffrey Epstein. Ces allégations ont été reprises dans les médias puis démenties, après qu’un perturbateur lors d’un rassemblement de Carney l’ait accusé d’abus envers des enfants. En ligne, les fausses accusations se sont propagées à l’aide d’images générées par intelligence artificielle, censées montrer Carney aux côtés de l’associée d’Epstein, Ghislaine Maxwell. Cette histoire a été reliée à des théories du complot affirmant la promotion d’un supposé « programme de génocide vert » et accusant Carney de faire partie d’un culte satanique — des récits amplifiés sur Rumble par des créateurs de contenu non canadiens. Consultez la publication de Disinfowatch à ce sujet. 

Nous avons rassemblé toutes les publications sur X mentionnant à la fois Carney et Epstein en mars 2025, et observé deux pics d’activité les 9 et 26 mars, les publications les plus virales ayant atteint plusieurs millions de vues. Bon nombre des publications diffusées juste avant le 9 mars proviennent d’un petit groupe de comptes de type spam qui ont soudainement commencé à relayer l’histoire en répondant à des publications de grandes figures politiques canadiennes sur X, répétant le même message à de nombreuses reprises avec peu ou pas de variations. Il s’agit d’une stratégie souvent utilisée par des bots ou comptes automatisés pour attirer l’attention. L’analyse de ces comptes montre qu’ils se contentent principalement de repartager du contenu plutôt que d’en produire, qu’ils adhèrent à d’autres théories du complot, et qu’ils diffusent majoritairement des messages anti-libéraux et anti-Carney. Certains repartagent également fréquemment des images générées par IA. Nous poursuivons notre surveillance pour déterminer si ces comptes font partie d’un réseau coordonné de bots, et publierons des mises à jour à ce sujet. Nous rappelons qu’il faut faire preuve de prudence face aux comptes X qui ne peuvent être clairement rattachés à une entité connue, car ils peuvent être pilotés par des acteurs malveillants.

INCIDENTS EN COURS 

▶️ Comptes suspects sur X 

Dans notre dernière mise à jour, nous avions identifié plusieurs comptes suspects sur X qui continuent de créer et de partager du contenu lié à l’élection fédérale. Bon nombre de ces comptes ciblent un parti politique en particulier, diffusent un volume très élevé de désinformation liée à la campagne et présentent plusieurs signes caractéristiques d’une activité automatisée (bot). Plusieurs des comptes identifiés ont été suspendus, mais d’autres sont toujours actifs et n’ont pas été retirés par X (en date du 3 avril). De manière générale, ces comptes ne génèrent pas un engagement significatif, mais nous poursuivons notre surveillance. Nous continuons de recommander aux Canadiens de faire preuve de prudence et d’éviter d’interagir avec des comptes qui ne peuvent être clairement associés à une entité connue.

INCIDENTS CLOS

▶️ Publications générées par IA se faisant passer pour des sources d’information fiables

La semaine dernière, nous avons ouvert une enquête sur du contenu sensationnaliste généré par intelligence artificielle, présenté comme provenant de sources d’information légitimes. Ces publications ont circulé sur Facebook, Instagram et X, souvent sous forme de publications commanditées (payantes). Elles utilisaient des images générées par IA de politiciens canadiens, imitaient l’apparence de sources médiatiques reconnues et contenaient des liens menant vers des arnaques liées aux cryptomonnaies.

Nous continuons d’observer un grand nombre de publications sponsorisées et de publicités sur Facebook (ex. : CBC 24/7, Podcast in Canada, Canada Votes, Holla Investing), Instagram, X et YouTube, incluant des liens vers de faux articles d’actualité. Ces publications se présentent à tort comme issues de médias crédibles (par exemple CBC, Toronto Sun, CTV) en reprenant leur nom, leur logo et leur mise en page. Ces faux articles incitent les lecteurs à investir dans des produits présentés comme « sans risque » et prétendument approuvés par des personnalités publiques comme Mark Carney ou le chef du NPD Jagmeet Singh. Certaines publications utilisent des images générées par IA montrant ces dirigeants en état d’arrestation pour avoir partagé une prétendue « formule secrète » d’investissement. Les escroqueries sont associées à divers noms : CanFirst, Capstone, Token Tact, Canada Crypto Fund, NorthEdge et True North. Les liens intégrés renvoient généralement à un formulaire demandant les coordonnées personnelles des internautes. Nous avons constaté que ces faux articles, présents sur toutes les grandes plateformes sociales, génèrent un niveau modéré à élevé de vues et d’engagement (par exemple, plus de 1 600 interactions), ce qui témoigne d’un investissement financier significatif dans leur diffusion.

Ces publications s’inscrivent dans une escroquerie internationale qui suit le même modèle: utiliser des images ou vidéos générées par IA de personnalités publiques et les codes visuels de médias reconnus pour gagner la confiance des lecteurs, puis les frauder en récoltant leurs données personnelles. Ces arnaques ont fait l’objet d’une couverture médiatique au Canada et à l’international au cours des derniers mois.

Comme l’objectif de ces publications semble avant tout financier, et non destiné à influencer l’élection canadienne, nous avons clos cet incident. Toutefois, nous continuerons de surveiller l’écosystème de l'information pour détecter du contenu semblable se faisant passer pour des sources d’information fiables, et rappelons aux Canadiens de toujours vérifier la provenance de l’information qu’ils consultent en ligne (par exemple, en s’assurant que l’URL correspond bien au nom du média). De plus, tout contenu cliquable arborant le logo d’un média légitime sur les plateformes de Meta (Instagram et Facebook) est probablement une arnaque, puisque Meta bloque toujours les nouvelles sur ces plateformes. 

▶️ Groupes Facebook suspects soutenant « le 51e État »

La semaine dernière, nous avons identifié un incident mineur concernant des groupes Facebook faisant la promotion de l’idée que le Canada devienne le 51e État des États-Unis. Bien que certains de ces groupes semblent organiques et authentiques, nous avons observé que d’autres avaient été renommés et réutilisés à partir de groupes préexistants — ce qui pourrait indiquer qu’ils ont été piratés ou achetés par des acteurs malveillants dans le but de diffuser de la désinformation et de favoriser la polarisation.

Nous avons enquêté sur le plus grand de ces groupes suspects, actuellement nommé « Canadians for the 51st state and Elon Musk for Governor » (en date du 3 avril), qui a été réaffecté en janvier 2023. Nous avons également analysé ses liens avec d’autres groupes. L’examen de ces groupes connexes et de leurs administrateurs n’a pas révélé de tendance plus large d’acteurs malveillants prenant le contrôle de groupes pour faire la promotion du rattachement aux États-Unis ou de positions similaires. De plus, la bibliothèque publicitaire de Facebook ne montre aucune preuve que ces groupes aient promu du contenu politique ou autre.

Le piratage/achat d’un petit nombre de groupes Facebook pour promouvoir des idées liées à la politique canadienne semblent donc constituer un incident isolé. Les publications provenant d’autres groupes favorables au « 51e État » paraissent authentiques : certains Canadiens militent réellement pour que le Canada devienne un État américain, ou pour que l’Alberta fasse sécession et rejoigne les États-Unis. Nous avons donc clos cet incident. Néanmoins, il est important que les Canadiens sachent à quel point il est facile pour des acteurs d’acheter et de détourner des groupes sur les plateformes sociales, et qu’ils fassent preuve de vigilance en conséquence.

 

Si vous voyez quelque chose, dites-le : Si vous tombez sur du contenu en ligne suspect lié à l’élection canadienne — du contenu qui pourrait indiquer une tentative de manipulation ou de désinformation à l’égard du public — prenez une capture d’écran et envoyez-nous un signalement via notre ligne de signalement. Un membre de notre équipe de recherche examinera chaque soumission.

 

RESSOURCE DE LA COALITION

HabiloMédias (Media Smarts)

HabiloMédias est un organisme sans but lucratif dédié à l’éducation aux médias et à la littératie numérique. Voici quelques-unes de leurs principales ressources en lien avec les élections.

Pour tous :

  • Le portail FAUX que ça cesse - Découvrez si les histoires sont vraies propose des étapes simples pour vérifier l’information en ligne à l’aide de vidéos, de conseils pratiques et de quiz interactifs.

Article : De meilleures actualités politiques et électorales en quatre étapes 

Plans de leçon pour les enseignant·e·s :


DisinfoWatch

DisinfoWatch est une plateforme canadienne qui surveille et démystifie la désinformation étrangère. Sa mission est de renforcer la résilience de la société à long terme en exposant les cas de mésinformation et de désinformation, et en sensibilisant le public à les repérer et à y réagir. Voici quelques-unes de leurs ressources les plus récentes (en anglais):


Nouveau : de courtes fiches pour décoder le vocabulaire des incidents d'information

Nous avons préparé de courtes fiches explicatives pour vous aider à mieux comprendre des termes comme bots, astroturfing et bien d’autres. Nous ajouterons du contenu au cours de la semaine — et si certains termes liés aux incidents d’information ne sont pas clairs, n’hésitez pas à nous écrire !


Cette semaine, sur notre ligne de signalement:

  • Nous avons reçu un total de 126 signalements depuis le début de la période électorale, dont 64 nouveaux cette semaine. 

  • 53 % des nouveaux signalements concernent des publications sur Facebook, et environ 20 % proviennent d’Instagram et de YouTube. 

  • Les signalements de cette semaine portent principalement sur quatre grands thèmes : 

    • Des affirmations ou préoccupations concernant du contenu trompeur émanant des campagnes officielles des partis. 

    • De la désinformation et des récits trompeurs visant Mark Carney et Pierre Poilievre. 

    • Une montée des fausses informations et des théories du complot en provenance de YouTube. 

    • Des inquiétudes concernant la propagation croissante de la désinformation.

 

Vous voyez quelque chose en ligne? Dites-le-nous!

👉Signalez-le nous par notre ligne de signalement.

 
Previous
Previous

Weekly Update 2 | Friday, April 4

Next
Next

Mise à jour hebdomadaire 1 | Vendredi 28 mars