
Sign up to save your podcasts
Or


Geneviève Lajeunesse est une professionnelle en cybersécurité dont le parcours atypique — du design interactif et du jeu vidéo vers la protection des usagers — lui a forgé une perspective unique sur les enjeux humains derrière la technologie. Elle est cofondatrice d’un organisme à but non lucratif, l’AB 2038, qui offre un cadre d’intervention aux personnes victimes de violences technologiques, notamment dans des contextes de violence conjugale. Elle intervient également de façon bénévole auprès d’organismes variés : médias, banques, groupes communautaires.
Le point de départ de la discussion est une réalité devenue incontournable : la surface de captation de données d’une personne ordinaire est aujourd’hui immense. La voiture connectée géolocalise ses occupants. La laveuse se branche au Wi-Fi. L’aspirateur intelligent cartographie le logement. Les lumières, la sonnette, le réfrigérateur — tout cela génère des données, souvent partagées entre conjoints sans qu’on y réfléchisse vraiment.
Ce qui rend cette réalité particulièrement préoccupante dans un contexte de violence conjugale, c’est que ces accès partagés ne disparaissent pas automatiquement lors d’une rupture. Un calendrier partagé oublié, un compte de véhicule conjoint non résilié, un abonnement Spotify encore lié — chacun de ces éléments peut devenir un vecteur de surveillance. La personne qui cherche à contrôler n’a pas besoin d’être un expert en informatique : elle a juste besoin de conserver l’accès à des outils qu’elle utilise déjà.
Un aspect central abordé dans l’épisode est la nature cumulative de la violence technologique. Un seul geste isolé — éteindre les lumières à distance, consulter la localisation du véhicule — peut sembler bénin ou même humoristique. Mais la répétition transforme ces gestes en harcèlement. C’est ce qu’on appelle parfois « mourir de mille coupures » : aucune blessure n’est fatale prise seule, mais l’accumulation crée un contexte de terreur et de perte de contrôle profonde.
Ce phénomène est particulièrement difficile à documenter sur le plan juridique. Pour obtenir l’aide du système de justice, la victime doit être en mesure d’énoncer clairement les comportements vécus et d’avoir explicitement demandé qu’ils cessent. Or, si certains de ces comportements n’avaient pas été imaginés d’avance, comment aurait-on pu en demander l’arrêt ? De plus, beaucoup de ces gestes ne laissent aucune trace — un interrupteur actionné à distance ne génère pas nécessairement de journal d’activité.
Les forces de l’ordre et les procureurs, bien intentionnés, sont souvent démunis face à ces crimes. Historiquement, la cybercriminalité était associée à des crimes en col blanc — fraudes, vols de données à grande échelle — et les corps policiers ont été formés en ce sens. Les crimes technologiques individualisés, très personnels, relèvent d’une tout autre logique, et l’expertise nécessaire pour y répondre est encore en construction.
Du côté des outils de détection, le constat est similaire. Les logiciels de type accès à distance — ceux que des conjoints malveillants utilisent fréquemment pour surveiller un appareil — ne sont pas automatiquement détectés comme malveillants par les antivirus classiques, car ils ont des usages légitimes. La victime fait un scan, ne trouve rien, et en conclut que la menace est encore plus sophistiquée qu’elle ne le pensait. Ce qui aggrave son état d’anxiété.
Un enjeu émergent soulevé dans l’épisode est l’utilisation croissante des grands modèles de langage — comme ChatGPT — par des personnes en détresse qui cherchent à comprendre ce qui leur arrive. Le problème est double.
D’abord, ces modèles n’ont pas de démarche systématique et rigoureuse. Ils ne vérifient pas les hypothèses les moins graves en premier. Face à des symptômes comme un téléphone qui chauffe ou redémarre, ils vont souvent suggérer des scénarios extrêmes — logiciels espions de type Pegasus, opérations de services de renseignement — alors que l’explication est presque toujours beaucoup plus simple et accessible.
Ensuite, les modèles d’IA ont tendance à confirmer les biais de la personne qui les interroge. Quelqu’un en état d’anxiété intense va formuler ses inquiétudes d’une certaine façon, et le modèle va amplifier ces craintes plutôt que les tempérer. Ce qui aurait pu être désamorcé en quelques échanges avec un professionnel se transforme en spirale d’angoisse. L’intervention humaine, rigoureuse et empathique, reste irremplaçable.
Contre-intuitivement, retirer immédiatement un accès malveillant n’est pas toujours la bonne décision. Dans un contexte de violence conjugale, mettre brusquement fin à la surveillance d’une personne volatile peut déclencher une escalade dangereuse. Avant d’agir, il faut évaluer la situation : comprendre qui est l’auteur, anticiper sa réaction, et s’assurer que la victime ne sera pas en danger accru si l’accès lui est retiré. Parfois, la bonne stratégie consiste à vivre avec la connaissance que le téléphone est compromis, tout en préparant un plan de sortie sécuritaire.
En terminant, Geneviève souligne l’importance d’écouter les personnes qui, autour de nous, expriment un malaise — même timidement. « Il sait toujours où je suis » ou « j’ai l’impression d’être surveillée » ne sont pas des propos à balayer du revers de la main. Ce sont des signaux à prendre au sérieux.
Pour les personnes au Québec qui vivent une situation inconfortable dans leur relation, SOS violence conjugale offre une ligne d’écoute 24 h sur 24 et dispose de ressources adaptées aux enjeux technologiques contemporains.
La violence conjugale n’est pas nouvelle, mais la technologie en a considérablement abaissé le seuil d’entrée et amplifié la portée. Répondre à ce phénomène demande des outils, des lois et une conscience collective à la hauteur de cette réalité.
By Nicolas-Loïc Fortin et tous les collaborateursGeneviève Lajeunesse est une professionnelle en cybersécurité dont le parcours atypique — du design interactif et du jeu vidéo vers la protection des usagers — lui a forgé une perspective unique sur les enjeux humains derrière la technologie. Elle est cofondatrice d’un organisme à but non lucratif, l’AB 2038, qui offre un cadre d’intervention aux personnes victimes de violences technologiques, notamment dans des contextes de violence conjugale. Elle intervient également de façon bénévole auprès d’organismes variés : médias, banques, groupes communautaires.
Le point de départ de la discussion est une réalité devenue incontournable : la surface de captation de données d’une personne ordinaire est aujourd’hui immense. La voiture connectée géolocalise ses occupants. La laveuse se branche au Wi-Fi. L’aspirateur intelligent cartographie le logement. Les lumières, la sonnette, le réfrigérateur — tout cela génère des données, souvent partagées entre conjoints sans qu’on y réfléchisse vraiment.
Ce qui rend cette réalité particulièrement préoccupante dans un contexte de violence conjugale, c’est que ces accès partagés ne disparaissent pas automatiquement lors d’une rupture. Un calendrier partagé oublié, un compte de véhicule conjoint non résilié, un abonnement Spotify encore lié — chacun de ces éléments peut devenir un vecteur de surveillance. La personne qui cherche à contrôler n’a pas besoin d’être un expert en informatique : elle a juste besoin de conserver l’accès à des outils qu’elle utilise déjà.
Un aspect central abordé dans l’épisode est la nature cumulative de la violence technologique. Un seul geste isolé — éteindre les lumières à distance, consulter la localisation du véhicule — peut sembler bénin ou même humoristique. Mais la répétition transforme ces gestes en harcèlement. C’est ce qu’on appelle parfois « mourir de mille coupures » : aucune blessure n’est fatale prise seule, mais l’accumulation crée un contexte de terreur et de perte de contrôle profonde.
Ce phénomène est particulièrement difficile à documenter sur le plan juridique. Pour obtenir l’aide du système de justice, la victime doit être en mesure d’énoncer clairement les comportements vécus et d’avoir explicitement demandé qu’ils cessent. Or, si certains de ces comportements n’avaient pas été imaginés d’avance, comment aurait-on pu en demander l’arrêt ? De plus, beaucoup de ces gestes ne laissent aucune trace — un interrupteur actionné à distance ne génère pas nécessairement de journal d’activité.
Les forces de l’ordre et les procureurs, bien intentionnés, sont souvent démunis face à ces crimes. Historiquement, la cybercriminalité était associée à des crimes en col blanc — fraudes, vols de données à grande échelle — et les corps policiers ont été formés en ce sens. Les crimes technologiques individualisés, très personnels, relèvent d’une tout autre logique, et l’expertise nécessaire pour y répondre est encore en construction.
Du côté des outils de détection, le constat est similaire. Les logiciels de type accès à distance — ceux que des conjoints malveillants utilisent fréquemment pour surveiller un appareil — ne sont pas automatiquement détectés comme malveillants par les antivirus classiques, car ils ont des usages légitimes. La victime fait un scan, ne trouve rien, et en conclut que la menace est encore plus sophistiquée qu’elle ne le pensait. Ce qui aggrave son état d’anxiété.
Un enjeu émergent soulevé dans l’épisode est l’utilisation croissante des grands modèles de langage — comme ChatGPT — par des personnes en détresse qui cherchent à comprendre ce qui leur arrive. Le problème est double.
D’abord, ces modèles n’ont pas de démarche systématique et rigoureuse. Ils ne vérifient pas les hypothèses les moins graves en premier. Face à des symptômes comme un téléphone qui chauffe ou redémarre, ils vont souvent suggérer des scénarios extrêmes — logiciels espions de type Pegasus, opérations de services de renseignement — alors que l’explication est presque toujours beaucoup plus simple et accessible.
Ensuite, les modèles d’IA ont tendance à confirmer les biais de la personne qui les interroge. Quelqu’un en état d’anxiété intense va formuler ses inquiétudes d’une certaine façon, et le modèle va amplifier ces craintes plutôt que les tempérer. Ce qui aurait pu être désamorcé en quelques échanges avec un professionnel se transforme en spirale d’angoisse. L’intervention humaine, rigoureuse et empathique, reste irremplaçable.
Contre-intuitivement, retirer immédiatement un accès malveillant n’est pas toujours la bonne décision. Dans un contexte de violence conjugale, mettre brusquement fin à la surveillance d’une personne volatile peut déclencher une escalade dangereuse. Avant d’agir, il faut évaluer la situation : comprendre qui est l’auteur, anticiper sa réaction, et s’assurer que la victime ne sera pas en danger accru si l’accès lui est retiré. Parfois, la bonne stratégie consiste à vivre avec la connaissance que le téléphone est compromis, tout en préparant un plan de sortie sécuritaire.
En terminant, Geneviève souligne l’importance d’écouter les personnes qui, autour de nous, expriment un malaise — même timidement. « Il sait toujours où je suis » ou « j’ai l’impression d’être surveillée » ne sont pas des propos à balayer du revers de la main. Ce sont des signaux à prendre au sérieux.
Pour les personnes au Québec qui vivent une situation inconfortable dans leur relation, SOS violence conjugale offre une ligne d’écoute 24 h sur 24 et dispose de ressources adaptées aux enjeux technologiques contemporains.
La violence conjugale n’est pas nouvelle, mais la technologie en a considérablement abaissé le seuil d’entrée et amplifié la portée. Répondre à ce phénomène demande des outils, des lois et une conscience collective à la hauteur de cette réalité.

11 Listeners

75 Listeners