Mise à jour hebdomadaire 3 | Vendredi 11  avril

Cette mise à jour hebdomadaire sur l’élection canadienne présente les principales tendances et dynamiques observées dans l’écosystème de l'information (Aperçu), met en lumière des incidents d'information et des menaces émergentes (Incidents), et partage du contenu éducatif, des résultats de recherche et d’autres ressources pertinentes produites par notre Coalition pour la résilience de l’écosystème de l'information (Mise à jour).  

Tous les faits et données sont tirés d’un sondage original et d’une collecte d’information sur les médias sociaux menée par l’Observatoire de l’écosystème médiatique. L’analyse couvre la période du 4 avril au 10 avril.


APERÇU

IA générative et élections : démêler le vrai du faux

Dans le cadre de l’élection fédérale de cette année, l’écosystème canadien de l'information est confronté à un nouveau défi : l’intelligence artificielle générative (IA générative). L’IA générative se distingue par sa capacité à créer du contenu inédit en apprenant à partir de vastes ensembles de données. Des outils comme ChatGPT d’OpenAI ou Gemini de Google peuvent produire rapidement (et à faible coût) des textes, images, vidéos ou enregistrements audio synthétiques qui paraissent authentiques. Bien que ces outils puissent s’avérer utiles, ils peuvent aussi être utilisés pour générer des photos de personnes dans des lieux où elles ne sont jamais allées, ou encore des vidéos et des enregistrements où elles semblent dire ou faire des choses qu’elles n’ont jamais dites ou faites. La prolifération rapide de ce type de contenu rend l’écosystème de l'information plus vulnérable à la désinformation, car il devient de plus en plus difficile de distinguer le vrai du faux. Dans l’aperçu de cette semaine, nous mettons en lumière la présence croissante de ce type de contenu dans l’écosystème canadien de l'information et offrons des ressources aux Canadien·ne·s qui peinent à s’y retrouver.

Depuis le début de la campagne, nous avons observé de nombreux cas sur les réseaux sociaux où l’IA générative a été utilisée pour créer de fausses images, vidéos, doublages vocaux, ainsi que de faux articles de nouvelles.

Ce type de contenu généré par IA est de plus en plus difficile à éviter : il peut être créé rapidement et facilement, ce qui entraîne une forte hausse du nombre de publications, et des acteurs malveillants paient les plateformes pour en amplifier la diffusion. Bien que ce contenu puisse servir à diffuser de la désinformation ou à semer la confusion, notre enquête « sur le terrain » — menée sur Facebook, Instagram, TikTok et X — révèle que la majorité des publications contenant de l’IA générative que voient les Canadien·ne·s sont des mèmes réactifs, souvent liés à l’actualité récente, et qui tournent en dérision des politicien·ne·s canadiens et américains de tout le spectre politique.

Malgré l’ampleur du contenu généré par IA que nous avons capté, les préoccupations des Canadien·ne·s à ce sujet ne semblent pas avoir évolué depuis le début de la campagne. En ligne, on observe très peu de discussions à propos de l’IA générative (et de l’IA en général) de la part des voix influentes dans l’écosystème canadien de l'information. Lorsque ces sujets sont abordés, ils concernent principalement les applications possibles de l’IA générative, comme les deepfakes (vidéos générées par IA), les bots (faux comptes se faisant passer pour des utilisateurs réels), les trolls, ou encore la désinformation. Ces sujets sont généralement soulevés par des influenceur·euses partisan·es dans une logique de critique ou d’accusation envers les politicien·ne·s, ou pour semer le doute sur la véracité de certains contenus.

Nous continuons de surveiller la propagation et l’engagement autour du contenu généré par IA sur les réseaux sociaux, et publierons d’autres mises à jour au fil de la campagne.

Nos données de sondage indiquent que les Canadien·ne·s demeurent modérément à très préoccupé·e·s par l’impact potentiel de l’information trompeuse sur l’issue de l’élection. Et lorsqu’on les interroge plus précisément sur la capacité de l’IA générative à induire les gens en erreur, l’inquiétude augmente, particulièrement chez les personnes plus âgées.

Nous encourageons les Canadien·ne·s à faire preuve de vigilance face au contenu généré par IA : essayez toujours de recouper l’information avec d’autres sources avant de lui faire confiance, et soyez attentif·ve·s aux éléments suspects ou incohérents dans les vidéos. Si vous voyez quelque chose de douteux, dites-le : vous pouvez nous le signaler via notre ligne de signalement, et nous mènerons une enquête.


INCIDENTS D’INFORMATION

Pendant la campagne électorale, nous rendons compte des incidents d'information susceptibles d’induire le public en erreur et de perturber le processus démocratique. De manière générale, nous nous concentrons sur les tentatives de manipulation de l'information menées de façon clandestine ainsi que sur les efforts d’ingérence étrangère, par opposition aux actions d’influence, qui sont par définition ouvertes et publiques. Cette semaine, nous avons identifié quatre nouveaux incidents mineurs, reclassé un incident précédemment clos au niveau modéré, et fait le suivi de trois incidents mineurs signalés la semaine dernière — dont deux ont été clôturés. Cliquez ici pour en savoir plus sur nos seuils d’intervention en cas d’incident.

Nouveaux incidents

Des publications sur WeChat de médias d’État portant sur l’élection canadienne 

Classification : Niveau 1 – Incident mineur

Plus tôt cette semaine, et pour la première fois pendant une élection, le Groupe de travail sur les menaces en matière de sécurité et de renseignements visant les élections (SITE) a signalé un cas d’ingérence étrangère, mettant en lumière plusieurs publications préoccupantes sur WeChat qui « visaient à influencer les communautés sino-canadiennes au Canada ». SITE a ciblé des publications du compte Youli-Youmian datées des 10 et 25 mars. Cet incident a suscité des préoccupations importantes, notamment de la part de plusieurs députés et candidats. Le candidat conservateur Michael Chong, déjà visé par des actes d’ingérence étrangère en provenance de la Chine, a réagi en affirmant que la Chine diffuse de l’information pour soutenir le Parti libéral. D’autres réactions allèguent que Carney serait financièrement redevable et compromis envers le gouvernement chinois. Ces affirmations ont reçu une large couverture dans les médias traditionnels et sociaux, alimentant l’attention soutenue portée à l’ingérence étrangère dans la campagne. Nous notons d’abord que les renseignements signalés par SITE, qui établissent un lien entre la propriété et l’orientation éditoriale de cette chaîne et la Commission des affaires politiques et juridiques du Comité central du Parti communiste chinois (CPLAC), devraient être intégrés aux listes internationales des entités liées à un État (EEAS SG.Strat).

Nous avons mené une enquête sur cette chaîne et ces publications et, sur la base des données dont nous disposons grâce à des méthodes fondées sur des sources ouvertes, nous concluons que le contenu portant sur le Canada — ainsi que l’engagement qu’il suscite — est conforme à l’activité habituelle de cette chaîne. Nous n’avons relevé aucun élément préoccupant ni aucun signe d’une ingérence matérielle de la Chine dans l’élection canadienne par l’intermédiaire de ce canal.

Dans le cadre de notre enquête, nous avons examiné l’ensemble du contenu publié par cette chaîne au cours du mois de mars. Nous avons extrait les données d’engagement, identifié les pays ciblés et évalué à la fois le contenu et la ligne éditoriale. Nous nous sommes posé les questions suivantes :

  1. Le contenu de la chaîne portait-il de manière disproportionnée sur le Canada ? 

  2. Ce contenu était-il en décalage avec la ligne éditoriale habituelle de la chaîne ? 

  3. Le contenu portant sur le Canada a-t-il suscité un engagement disproportionné ?

  4. Existe-t-il des preuves d’un impact ?

Le contenu de la chaîne portait-il de manière disproportionnée sur le Canada ? 

Une analyse du contenu de la chaîne Youli-Youmian révèle que la couverture liée au Canada était minimale : sur les 93 publications diffusées en mars 2025, seulement 4 (soit 4,3 %) portaient sur le Canada. À titre de comparaison, 58,1 % des publications portaient sur les États-Unis, avec également une couverture importante de l’Ukraine (15,1 %), de la Corée (7,5 %), de Taïwan (6,5 %) et de l’Union européenne (5,4 %). Le Canada n’était donc pas un sujet central pour cette chaîne ni pour son auditoire durant le mois de mars 2025. L’élection canadienne semble avoir été traitée en raison de son importance comme événement international majeur, plutôt que dans le cadre d’une campagne d’influence ciblée.

Ce contenu était-il en décalage avec la ligne éditoriale habituelle de la chaîne ?

La chaîne se consacre à l’actualité internationale, avec une attention particulière — et souvent critique — portée aux États-Unis. Dans les articles portant sur le Canada, rien n’indique la présence de désinformation, de récits trompeurs ou de traitements manipulateurs. Le langage utilisé semble factuel et ne favorise clairement aucun parti ni candidat. Les commentaires autorisés sous les articles ne montrent pas non plus de parti pris politique. Sur la base du contenu textuel uniquement, nous trouvons peu d’éléments permettant de conclure à une volonté d’influencer les résultats politiques au Canada.

Le contenu portant sur le Canada a-t-il suscité un engagement disproportionné ?

Ce qui a particulièrement attiré l’attention, c’est le niveau d’engagement généré par ces publications, qui aurait dépassé celui de certains grands médias d’État comme le People’s Daily. Le graphique ci-dessous montre les quatre articles sur le Canada dans la distribution de l’engagement pour l’ensemble des publications de mars sur cette chaîne. Comparé aux autres publications du même mois, le contenu sur le Canada n’a pas suscité un engagement anormalement élevé : le niveau d’interaction est globalement cohérent avec la popularité habituelle de la chaîne. La publication ayant généré le plus d’engagement (le 10 mars) se situe au 77e percentile : elle a obtenu plus d’engagement que 71 autres publications, mais moins que 21. En moyenne, les publications sur le Canada n’ont pas généré davantage d’engagement que celles portant sur d’autres pays, et elles ont suscité nettement moins d’intérêt que celles sur la Corée, l’Ukraine ou les États-Unis. Rien n’indique que ces publications se démarquaient de manière à suggérer une amplification ciblée ou un intérêt exceptionnel de la part de l’audience.

Nous n’avons pas été en mesure d’évaluer si la publication du 25 mars a été « amplifiée de manière coordonnée et non authentique par un groupe de 30 petits comptes WeChat ayant renforcé sa visibilité », mais nous considérons qu’un tel scénario est possible. Ce type d’amplification pourrait faire partie des pratiques habituelles de la chaîne ou indiquer une tentative d’ingérence étrangère. Cette publication, toutefois, n’a généré qu’un niveau d’engagement moyen sur la chaîne dans l’ensemble et a probablement été vue par peu de personnes au Canada.

Existe-t-il des preuves d’un impact ?

L’influence réelle de ces articles sur les électeurs canadiens — en particulier les électeurs canadiens d’origine chinoise — demeure incertaine. La chaîne cible principalement un public chinois local, et rien n’indique que ces publications aient été largement diffusées dans les écosystèmes de médias sociaux canadiens. Même si certains utilisateurs au Canada ont pu être exposés à ce contenu, il reste spéculatif de croire que cela aura une influence significative sur leur décision de vote — notamment compte tenu d’autres facteurs plus déterminants, comme leurs expériences personnelles, leurs réseaux sociaux et les sources d’information canadiennes. 

Nous continuerons de surveiller les chaînes d’information officielles, contrôlées ou liées à des États tout au long de la période électorale, et nous signalerons tout comportement inhabituel.

Allégations de fraude électorale 

Classification : Niveau 1 – Incident mineur

On observe une augmentation des allégations de fraude électorale visant Élections Canada. Les récits comprennent notamment : des accusations selon lesquelles Élections Canada aurait organisé une campagne pour permettre à un grand nombre de candidats indépendants de se présenter dans la circonscription de Pierre Poilievre afin de « diviser le vote » ; des affirmations selon lesquelles l’élection sera truquée ; ainsi que des doutes sur la sécurité des machines de vote de Dominion (rappelons qu’Élections Canada n’utilise ni de machines pour compter les bulletins de vote ni de système de vote électronique). Bien que ces allégations non fondées à l’égard d’Élections Canada circulent de façon sporadique depuis le début de la campagne, on observe une hausse du nombre de publications remettant en question l’indépendance et l’intégrité du processus électoral, ainsi qu’un engagement accru avec ce type de contenu. Ce type d’allégation est devenu courant dans les élections récentes. Nous continuerons d’analyser la circulation et l’amplification de ces récits liés à l’intégrité électorale, afin de déterminer si et comment cette conversation évolue.

Deepfakes de politicien·ne·s canadien·ne·s 

Classification : Niveau 1 – Incident mineur 

Des vidéos deepfake de politicien·ne·s canadien·ne·s commencent à apparaître plus fréquemment et se propagent dans l’écosystème de l'information. En réponse, nous surveillons activement une liste de comptes ayant partagé du contenu généré par IA. Parmi les exemples, l’un présente faussement Mark Carney affirmant qu’il ne parle pas français et que la langue n’a pas d’importance. Or, l’arrière-plan et l’audio de la vidéo proviennent en réalité d’une entrevue de Chandra Arya lors du lancement de sa campagne à la direction du Parti libéral. Bien qu’une partie de ce contenu semble clairement générée par l’IA — par exemple, des vidéos manifestement fausses ou modifiées, avec des incohérences chez les personnes montrées — l’incident demeure préoccupant, puisque ces publications continuent d’attirer l’attention et de susciter de l’engagement, certaines ayant été vues plus de cent mille fois. Nous continuerons de suivre l’origine et la diffusion de contenus générés par IA mettant en scène des politiciens canadiens.

Plaidoyer américano-canadien pour le 51e État 

Classification : Niveau 1 – Incident mineur 

Bien que notre enquête sur les groupes Facebook liés au « 51e État » ait été close la semaine dernière, nous signalons cette semaine un incident connexe. Un nouveau site web, intitulé « 51st State Protectors of the Oath », a relancé les débats en ligne autour d’une possible sécession de l’Alberta du Canada et de son annexion aux États-Unis. Cette initiative invite les Albertain·e·s à s’impliquer politiquement, notamment en votant lors d’un référendum sur la citoyenneté américaine et en participant à un « convoi du G7 » prévu entre Edmonton et Calgary en juin. Cette campagne croise des efforts d’influence et de leadership américains visant à normaliser l’idée de l’annexion et de la transformation du Canada en État américain.

L’entrelacement des tensions internes canadiennes avec des campagnes numériques stratégiques américaines influence le discours politique à un moment crucial de la vie démocratique canadienne. Ces initiatives pourraient renforcer les divisions existantes au Canada et remettre en question le sentiment de souveraineté nationale. Nous poursuivons la surveillance de ces campagnes.

INCIDENTS EN COURS

Fausses nouvelles générées par IA 

Classification : Reclassé au Niveau 2 – Incident modéré 

Du contenu généré par intelligence artificielle, présenté comme provenant de sources d’information légitimes, continue de se propager sur Facebook et Instagram. Nous avions clos cet incident la semaine dernière, car les publicités semblaient principalement motivées par des objectifs financiers plutôt que politiques. Cette semaine, nous rouvrons et reclassons l’incident au niveau modéré après avoir constaté une augmentation du volume et de la portée des publications. L’activité est particulièrement concentrée sur Facebook, où plus de 25 pages différentes ont été identifiées depuis le début de la campagne (Canada Votes, National Digest, The Broad Maple, The Maple Current, Canada Insider, Parliament & Perspectives, College Enter, 25k Podcast, entre autres), publiant quotidiennement plusieurs publicités présentées comme des articles de presse, mais faisant en réalité la promotion d’arnaques. Alors que les titres précédents étaient clairement orientés vers des enjeux financiers, le contenu prend une tournure plus politique. On observe des titres nettement plus partisans, par exemple : « URGENT: Carney détruit l’argument de Poilievre en quelques secondes ». De plus, le contenu généré par IA est de plus en plus sophistiqué : on voit désormais des vidéos deepfake de plusieurs minutes, avec de faux journalistes de CBC générés par IA, ainsi que de fausses conférences de presse mettant en scène Mark Carney.

Au-delà du nombre élevé de pages et parfois d’un fort taux d’engagement (certaines publications comptent plus de 1 000 réactions), notre sondage indique également que ce contenu est répandu : 25 % des Canadien·ne·s déclarent avoir vu, au cours du dernier mois, une publication ou page web se présentant à tort comme une source d’information légitime (p. ex. : CBC, Toronto Sun, La Presse) en imitant son nom, son logo ou sa mise en page. Parmi les personnes exposées, 59 % ont affirmé avoir immédiatement identifié le contenu comme étant faux, ce que nous observons également dans les commentaires sous les publications commanditées. Nous encourageons fortement les Canadien·ne·s à faire preuve de vigilance face à la prolifération du contenu généré par IA sur les réseaux sociaux, en particulier lorsqu’il est présenté comme du contenu journalistique vérifié. Il est important de rappeler qu’au Canada, le contenu des médias d’information officiels n’est plus accessible sur Facebook et Instagram.

Fausse connexion entre Carney et Epstein amplifiée par des comptes potentiellement automatisés 

Classification : Niveau 1 – Incident mineur 

Les allégations d’un lien entre Mark Carney et Jeffrey Epstein circulent dans l’écosystème de l'information depuis janvier, relayées par certaines voix influentes. Dans l’incident ouvert la semaine dernière, nous avons identifié une activité suspecte amplifiant ces affirmations. Deux comptes particulièrement suspects ont diffusé le même message accusant Carney d’avoir des liens avec Epstein à 564 reprises pour l’un, et 44 fois pour l’autre en 48 heures (les 7 et 8 mars). En mars, ces deux comptes ont publié respectivement 1 028 et 873 messages, principalement des réponses répétant sans variation ce même message, avec toutefois très peu de vues.

Cette semaine, nous avons identifié 195 comptes ayant contribué à l’amplification de deux articles et une publication sur X, tous accusant Carney d’avoir entretenu une relation avec Epstein. Ces comptes ont partagé le titre des publications avec peu ou pas de variation. Parmi eux, 5 se recoupent avec des comptes que nos partenaires de coalition chez ResetTech ont déjà identifiés comme des bots, et plusieurs autres présentent des signes d’inauthenticité. Ces efforts d’amplification n’ont toutefois eu qu’un impact limité sur la visibilité globale du contenu. 

Nous avons également analysé l’ensemble des discussions à propos des accusations contre Carney sur X. Il en ressort que les publications originales sur ce sujet citaient généralement des sources peu fiables (comme YouTube, thegatewaypundit, ou Rumble), tandis que certains utilisateurs ont amplifié le récit en répondant ou en citant des médias traditionnels comme le National Post, le Toronto Star ou CBC News. Nous avons aussi noté que ce récit a d’abord émergé sur X et Instagram en janvier, et a été repris par des influenceurs et commentateurs politiques. 

Nous estimons qu’il s’agit ici principalement d’un récit promu par des comptes influents et authentiques, avec une participation marginale de comptes suspects ou potentiellement inauthentiques, plutôt qu’une campagne coordonnée de désinformation menée à grande échelle par un réseau de bots. Nous poursuivons la surveillance de ces comptes et des allégations associées.

INCIDENTS CLOS

Comptes suspects sur X 

Classification : Niveau 1 – Incident mineur 

Bien que nous continuions d’observer des comptes suspects (potentiellement automatisés) sur X, nous clôturons cet incident spécifique. Au début de la campagne électorale, de nombreux comptes suspects ont été repérés. Nous signalerons dorénavant ceux qui participent à des manipulations de l’information de manière coordonnée et significative. Nous poursuivons la surveillance des pics d’engagement autour de certains récits ou sujets, et analysons leurs origines. Toutefois, nous n’avons actuellement aucune preuve concluante d’une campagne coordonnée visant l’élection canadienne. Cet incident est donc clos, mais nous encourageons les Canadien·ne·s à rester vigilants, à consulter nos ressources éducatives sur les bots, et à signaler les comptes suspects via notre ligne de signalement.

 

Si vous voyez quelque chose de suspect, dites-le. Si vous tombez sur du contenu en ligne lié à l’élection canadienne qui vous semble suspect ou qui pourrait viser à manipuler ou induire en erreur, prenez une capture d’écran et envoyez-nous un signalement. Un·e chercheur·e examinera chaque soumission.

 

RESSOURCES DE LA COALITION

DFRLAB

Vous n’avez pas eu le temps de lire le rapport final de la Commission sur l’ingérence étrangère dans les processus électoraux fédéraux et les institutions démocratiques ? Le DFRLab l’a décortiqué pour vous avec son rapport: « An existential threat: Disinformation ‘single biggest risk’ to Canadian democracy». Vous pouvez le lire en anglais ici.

DISINFOWATCH et CANADA’S DIGITAL PUBLIC SQUARE

DisinfoWatch et Canada’s Digital Public Square ont publié « Democracy and You: A Handbook for Detecting and Preventing Foreign Interference in Canadian Elections ». Ce guide concret a pour but d’outiller les Canadien·ne·s — électeurs, journalistes, activistes et partis politiques — afin qu’ils puissent reconnaître et contrer l’ingérence étrangère, tant pendant les élections qu’entre les scrutins. Vous pouvez le lire ici.

LABO POLCOMMTECH

« Influenceurs et élections : les nombreux rôles que jouent les créateurs de contenu dans les élections » est un nouveau rapport du Labo PolCommTech qui explore comment les créateurs sur les réseaux sociaux façonnent les récits, interprètent l’actualité et influencent le comportement des électeurs. Le rapport examine également comment certains de ces créateurs peuvent relayer de la mésinformation et de la désinformation, parfois intégrées à des campagnes d’ingérence étrangère, ou encore contourner les lois et règlements en vigueur sur les élections. Vous pouvez lire le rapport en français ici et en anglais ici.

CENTRE SAMARA POUR LA DÉMOCRATIE

Il y a une semaine, le Centre Samara pour la démocratie a lancé Verified, un projet qui aide les Canadien·ne·s à s’y retrouver dans le contenu électoral en ligne, sur différentes plateformes. Chaque semaine, ils proposent un aperçu des conversations électorales en ligne. Vous pouvez vous inscrire pour recevoir leurs mises à jour ici.


MEMBRES DE LA COALITION DANS The Conversation

AI is making elections weird: Lessons from a simulated war-game exercise

  • Lisez l’article de l’Applied AI Institute dans The Conversation ici

Foreign interference threats in Canada’s federal election are both old and new

  • Lisez l’article du Centre for the Study of Democratic Institutions dans The Conversation ici.


NOUVELLE VIDEO EXPLICATIVE

Alors que la manipulation de l'information se propage de plus en plus, il est plus important que jamais de protéger l’intégrité de notre écosystème de l'information. C’est pourquoi la Coalition — composée de l’Observatoire de l’écosystème médiatique, du Réseau canadien de recherche sur les médias numériques (CDMRN) et de partenaires universitaires et de la société civile — surveille activement et réagit aux tentatives de manipulation de l'information pendant cette 45 élection fédérale. Regardez cette vidéo (en anglais) pour mieux comprendre comment nous procédons.

Cette semaine, sur notre ligne de signalement:

  • Nous avons reçu un total de 155 signalements depuis le début de la période électorale, dont 33 nouveaux cette semaine. 

  • 66 % des nouveaux signalements concernent des publications sur Facebook, 24 % proviennent de TikTok et de YouTube, et environ 10 % sont liés à des sites web. 

  • Les signalements de cette semaine portent principalement sur les thèmes suivants*:

    • Désinformation politique 

    • Sites web et arnaques diffusant de la désinformation électorale 

    • Deepfakes générés par IA mettant en scène des figures politiques (par ex. : Mark Carney) 

    • Préoccupations liées à la manipulation de l’opinion publique sur les réseaux sociaux 

    • Désinformation visant Mark Carney et Pierre Poilievre 

    • Détournement ou mauvaise représentation de lois (par ex. : projet de loi C-69) 

    • Influence étrangère (par ex. : Chine) 

      * À noter : Les sujets signalés reflètent les préoccupations courantes des utilisateur·rice·s. Certains peuvent mener à l’ouverture d’incidents potentiels dans l’écosystème médiatique, mais ils n’indiquent pas nécessairement la présence de menaces ou d’événements imminents.

 

Vous voyez quelque chose en ligne? Dites-le-nous!
Signalez-le nous par notre
ligne de signalement.

 
Previous
Previous

Weekly Update 3 | Friday, April 11

Next
Next

Weekly Update 2 | Friday, April 4