
Sign up to save your podcasts
Or


Dans cette 14e collaboration entre les balados Cyber Citoyen et PolySécure, Nicolas reçoit Catherine Dupont-Gagnon et Samuel Harper pour une discussion dense et animée sur plusieurs enjeux de cybersécurité, de surveillance et de démocratie numérique. L’épisode couvre trois grands thèmes : le projet de loi canadien C-22, les révélations sur le Department of Homeland Security américain, et la montée des outils d’influence politique automatisés.
Samuel Harper introduit le projet de loi C-22, une version remaniée et plus ciblée de l’ancien C-2, qui avait suscité beaucoup de controverse. Si certaines dispositions particulièrement attentatoires à la vie privée ont été retirées — notamment la fouille du courrier postal et la collecte de données sans mandat — d’autres éléments soulèvent encore des préoccupations.
Parmi les changements notables, les forces de l’ordre pourront désormais demander à un fournisseur de services Internet ou de télécommunication si une personne y détient un compte, sans avoir besoin d’un mandat préalable. La compagnie doit simplement répondre par oui ou non. Sam souligne que cette disposition, bien qu’encadrée, pourrait permettre de dresser des profils assez détaillés en croisant les informations de plusieurs fournisseurs.
Le projet de loi prévoit également d’obliger certains fournisseurs — désignés comme « core providers » — à conserver les métadonnées de communications pendant une période maximale d’un an. Cela inclut notamment des données de géolocalisation et des informations sur quels appareils ont communiqué entre eux. Catherine soulève un point crucial : cette obligation de conservation crée une cible de choix pour des acteurs malveillants ou des employés internes corrompus qui pourraient accéder à ces données de façon non autorisée.
Le trio discute également de la légalisation pour les forces de l’ordre d’utiliser des données de sources ouvertes (réseaux sociaux publics, forums) et potentiellement d’acheter des données auprès de data brokers. Cette dernière pratique est particulièrement problématique, car elle permet de contourner l’exigence d’un mandat judiciaire en remplaçant la procédure légale par un simple budget d’enquête. La question des données de santé achetables sur le marché, et la facilité croissante de désanonymiser des individus grâce à l’intelligence artificielle, vient compléter ce tableau préoccupant.
Pour ceux qui souhaitent s’opposer au projet de loi, Samuel rappelle que les citoyens peuvent contacter leur député, écrire des commentaires sur le site du Parlement ou demander à témoigner en comité.
Catherine prend ensuite la parole pour présenter des documents divulgués par des activistes concernant des projets de surveillance du Department of Homeland Security américain. Environ 6 000 entreprises auraient soumis des propositions à l’agence, allant de la surveillance biométrique avancée dans les aéroports jusqu’à l’utilisation des téléphones comme scanners biométriques.
Le projet qui retient le plus l’attention de Catherine est une plateforme qui analyserait les appels au 911 à l’échelle nationale pour créer une carte prédictive des incidents criminels — une forme de « minority report » appliquée à la police. Cette approche algorithmique de la prévention du crime est hautement problématique en raison des biais systémiques qu’elle risque de reproduire et d’amplifier. Le livre Automating Inequality est mentionné comme référence sur ce sujet.
Samuel insiste sur le fait que ces projets ne sont pas que théoriques : certains sont déjà partiellement retenus et font l’objet de financements dépassant les 100 milliards de dollars. Sans tomber dans le fatalisme, les trois animateurs rappellent que la résistance citoyenne a déjà démontré son efficacité — notamment à Minneapolis — et que des solutions créatives et low-tech, comme des techniques de maquillage perturbant la reconnaissance faciale, peuvent constituer des formes de résistance accessibles et efficaces.
Catherine présente ensuite un article du Devoir portant sur une entreprise israélienne qui commercialise une technologie d’influence politique au Canada. Le principe : envoyer des messages à des sympathisants pour les inciter à interagir avec des publications politiques, en générant même des commentaires personnalisés par intelligence artificielle afin d’éviter la détection des plateformes.
Il ne s’agit pas de bots, mais d’humains dont l’action est orchestrée et facilitée par la machine, ce que Samuel qualifie d’« astroturfing gamifié ». La comparaison avec Cambridge Analytica est inévitable : on instrumentalise les liens de confiance entre individus, comme Farmville le faisait jadis sur Facebook pour aspirer les données des amis d’utilisateurs. L’enjeu démocratique est fondamental : l’application est conçue pour que l’utilisateur n’ait pas à réfléchir au message qu’il diffuse, court-circuitant ainsi l’engagement politique authentique.
La discussion dérive naturellement vers l’usage de l’IA générative dans les milieux professionnels et éducatifs. Catherine observe une dégradation notable chez ses étudiants : travaux générés en quelques secondes sans relecture, anxiété accrue aux examens, baisse des résultats sur des évaluations identiques à celles d’il y a 18 mois. Elle note que les étudiants délèguent même la prise de notes à des outils IA lors des cours Zoom, privant leur cerveau du travail cognitif nécessaire à la mémorisation.
Nicolas renchérit en évoquant la qualité des documents reçus dans son milieu professionnel, qu’il décrit comme des textes « bien polis mais sans substance » — un éternuement qui n’aboutit pas. Le groupe s’entend pour dire que l’IA est un outil utile dans certains contextes, mais que son utilisation généralisée et non réfléchie érode des compétences fondamentales. La solution, jugée simple mais exigeante, reste de faire l’effort cognitif soi-même.
L’épisode se termine sur une note d’espoir mesuré : sans nier la gravité des enjeux abordés, les trois animateurs refusent le fatalisme. Ils évoquent la possibilité de diffuser le balado sur Twitch pour rejoindre un public plus jeune, et s’engagent à tester prochainement la fameuse application de militantisme virtuel pour en analyser les résultats dans un épisode futur.
By Nicolas-Loïc Fortin et tous les collaborateursDans cette 14e collaboration entre les balados Cyber Citoyen et PolySécure, Nicolas reçoit Catherine Dupont-Gagnon et Samuel Harper pour une discussion dense et animée sur plusieurs enjeux de cybersécurité, de surveillance et de démocratie numérique. L’épisode couvre trois grands thèmes : le projet de loi canadien C-22, les révélations sur le Department of Homeland Security américain, et la montée des outils d’influence politique automatisés.
Samuel Harper introduit le projet de loi C-22, une version remaniée et plus ciblée de l’ancien C-2, qui avait suscité beaucoup de controverse. Si certaines dispositions particulièrement attentatoires à la vie privée ont été retirées — notamment la fouille du courrier postal et la collecte de données sans mandat — d’autres éléments soulèvent encore des préoccupations.
Parmi les changements notables, les forces de l’ordre pourront désormais demander à un fournisseur de services Internet ou de télécommunication si une personne y détient un compte, sans avoir besoin d’un mandat préalable. La compagnie doit simplement répondre par oui ou non. Sam souligne que cette disposition, bien qu’encadrée, pourrait permettre de dresser des profils assez détaillés en croisant les informations de plusieurs fournisseurs.
Le projet de loi prévoit également d’obliger certains fournisseurs — désignés comme « core providers » — à conserver les métadonnées de communications pendant une période maximale d’un an. Cela inclut notamment des données de géolocalisation et des informations sur quels appareils ont communiqué entre eux. Catherine soulève un point crucial : cette obligation de conservation crée une cible de choix pour des acteurs malveillants ou des employés internes corrompus qui pourraient accéder à ces données de façon non autorisée.
Le trio discute également de la légalisation pour les forces de l’ordre d’utiliser des données de sources ouvertes (réseaux sociaux publics, forums) et potentiellement d’acheter des données auprès de data brokers. Cette dernière pratique est particulièrement problématique, car elle permet de contourner l’exigence d’un mandat judiciaire en remplaçant la procédure légale par un simple budget d’enquête. La question des données de santé achetables sur le marché, et la facilité croissante de désanonymiser des individus grâce à l’intelligence artificielle, vient compléter ce tableau préoccupant.
Pour ceux qui souhaitent s’opposer au projet de loi, Samuel rappelle que les citoyens peuvent contacter leur député, écrire des commentaires sur le site du Parlement ou demander à témoigner en comité.
Catherine prend ensuite la parole pour présenter des documents divulgués par des activistes concernant des projets de surveillance du Department of Homeland Security américain. Environ 6 000 entreprises auraient soumis des propositions à l’agence, allant de la surveillance biométrique avancée dans les aéroports jusqu’à l’utilisation des téléphones comme scanners biométriques.
Le projet qui retient le plus l’attention de Catherine est une plateforme qui analyserait les appels au 911 à l’échelle nationale pour créer une carte prédictive des incidents criminels — une forme de « minority report » appliquée à la police. Cette approche algorithmique de la prévention du crime est hautement problématique en raison des biais systémiques qu’elle risque de reproduire et d’amplifier. Le livre Automating Inequality est mentionné comme référence sur ce sujet.
Samuel insiste sur le fait que ces projets ne sont pas que théoriques : certains sont déjà partiellement retenus et font l’objet de financements dépassant les 100 milliards de dollars. Sans tomber dans le fatalisme, les trois animateurs rappellent que la résistance citoyenne a déjà démontré son efficacité — notamment à Minneapolis — et que des solutions créatives et low-tech, comme des techniques de maquillage perturbant la reconnaissance faciale, peuvent constituer des formes de résistance accessibles et efficaces.
Catherine présente ensuite un article du Devoir portant sur une entreprise israélienne qui commercialise une technologie d’influence politique au Canada. Le principe : envoyer des messages à des sympathisants pour les inciter à interagir avec des publications politiques, en générant même des commentaires personnalisés par intelligence artificielle afin d’éviter la détection des plateformes.
Il ne s’agit pas de bots, mais d’humains dont l’action est orchestrée et facilitée par la machine, ce que Samuel qualifie d’« astroturfing gamifié ». La comparaison avec Cambridge Analytica est inévitable : on instrumentalise les liens de confiance entre individus, comme Farmville le faisait jadis sur Facebook pour aspirer les données des amis d’utilisateurs. L’enjeu démocratique est fondamental : l’application est conçue pour que l’utilisateur n’ait pas à réfléchir au message qu’il diffuse, court-circuitant ainsi l’engagement politique authentique.
La discussion dérive naturellement vers l’usage de l’IA générative dans les milieux professionnels et éducatifs. Catherine observe une dégradation notable chez ses étudiants : travaux générés en quelques secondes sans relecture, anxiété accrue aux examens, baisse des résultats sur des évaluations identiques à celles d’il y a 18 mois. Elle note que les étudiants délèguent même la prise de notes à des outils IA lors des cours Zoom, privant leur cerveau du travail cognitif nécessaire à la mémorisation.
Nicolas renchérit en évoquant la qualité des documents reçus dans son milieu professionnel, qu’il décrit comme des textes « bien polis mais sans substance » — un éternuement qui n’aboutit pas. Le groupe s’entend pour dire que l’IA est un outil utile dans certains contextes, mais que son utilisation généralisée et non réfléchie érode des compétences fondamentales. La solution, jugée simple mais exigeante, reste de faire l’effort cognitif soi-même.
L’épisode se termine sur une note d’espoir mesuré : sans nier la gravité des enjeux abordés, les trois animateurs refusent le fatalisme. Ils évoquent la possibilité de diffuser le balado sur Twitch pour rejoindre un public plus jeune, et s’engagent à tester prochainement la fameuse application de militantisme virtuel pour en analyser les résultats dans un épisode futur.

11 Listeners

75 Listeners