
Sign up to save your podcasts
Or
Retour sur le risque d’ingérences étrangères et de manipulations de l’information avant les élections européennes, en particulier via l’intelligence artificielle.
L’IA, oui, et surtout l’IA générative, qui peut être un outil au service d’États étrangers qui cherchent à perturber les élections européennes du 9 juin. On pense évidemment à la Russie, car il y a des précédents. En septembre dernier, avant les élections en Slovaquie qui ont porté le pro-russe Robert Fico au pouvoir, une journaliste, Monika Todova, a été victime d’un hypertrucage de sa voix dans une fausse conversation avec le dirigeant du parti progressiste slovaque. L’avant-veille du scrutin, cette mise en scène à base d’IA, qu’on appelle aussi deepfake, a été abondamment partagée sur les réseaux sociaux pour faire croire à l’organisation d’une fraude électorale.
Le procureur a ensuite ouvert une enquête pour diffamation alors que la police refusait d’enquêter. Mais Reporters sans frontières voit dans cette affaire un signal d’alarme : il est « impératif », dit RSF, de mettre nos démocraties à l’abri de ces manipulations en créant un délit spécifique de deepfake avec des sanctions pénales. RSF appelle à « un new deal pour le droit à l’information ». Elle demande notamment un plan européen sur l’intelligence artificielle qui passe par la création d’un modèle de langage de l’UE pour l’IA dans les médias et que soit imposé aux algorithmes une obligation de promouvoir des sources fiables.
Le règlement numérique européen (DSA) ne prévoit-il pas déjà des mesures de prévention ?Si, bien sûr, le DSA dit que les très grandes plateformes et les moteurs de recherche doivent garantir « un marquage bien visible pour garantir qu’un élément d’information généré soit reconnaissable ». Et en février, les entreprises Google, Meta, TikTok et Microsoft se sont engagées à labelliser les images générées par l’IA. Est-ce que ce sera suffisant ? En fait, la prolifération des fausses informations passe par la viralité, et il est déjà bien tard quand elles sont retirées. C’est pourquoi le Forum sur l’information et la démocratie appelle les plateformes à favoriser un système d’infos certifiées, et adapté à l’IA, avec des normes qui garantissent l’authenticité et la provenance, bref une sorte de traçabilité des contenus, un peu comme dans l’alimentaire.
Il y a urgence : une étude de Sopra Steria, publiée mardi, montre que 74% des personnes interrogées estiment être capables de faire le tri entre les vraies et les fausses infos, mais que les deux tiers adhèrent en parallèle à une infox testée dans l’étude. Comme dit David Colon, professeur à Sciences Po, face aux ingérences russes : « La France est un ventre mou, car il y a une trop faible confiance dans les institutions, le processus électoral et les médias. »
Retour sur le risque d’ingérences étrangères et de manipulations de l’information avant les élections européennes, en particulier via l’intelligence artificielle.
L’IA, oui, et surtout l’IA générative, qui peut être un outil au service d’États étrangers qui cherchent à perturber les élections européennes du 9 juin. On pense évidemment à la Russie, car il y a des précédents. En septembre dernier, avant les élections en Slovaquie qui ont porté le pro-russe Robert Fico au pouvoir, une journaliste, Monika Todova, a été victime d’un hypertrucage de sa voix dans une fausse conversation avec le dirigeant du parti progressiste slovaque. L’avant-veille du scrutin, cette mise en scène à base d’IA, qu’on appelle aussi deepfake, a été abondamment partagée sur les réseaux sociaux pour faire croire à l’organisation d’une fraude électorale.
Le procureur a ensuite ouvert une enquête pour diffamation alors que la police refusait d’enquêter. Mais Reporters sans frontières voit dans cette affaire un signal d’alarme : il est « impératif », dit RSF, de mettre nos démocraties à l’abri de ces manipulations en créant un délit spécifique de deepfake avec des sanctions pénales. RSF appelle à « un new deal pour le droit à l’information ». Elle demande notamment un plan européen sur l’intelligence artificielle qui passe par la création d’un modèle de langage de l’UE pour l’IA dans les médias et que soit imposé aux algorithmes une obligation de promouvoir des sources fiables.
Le règlement numérique européen (DSA) ne prévoit-il pas déjà des mesures de prévention ?Si, bien sûr, le DSA dit que les très grandes plateformes et les moteurs de recherche doivent garantir « un marquage bien visible pour garantir qu’un élément d’information généré soit reconnaissable ». Et en février, les entreprises Google, Meta, TikTok et Microsoft se sont engagées à labelliser les images générées par l’IA. Est-ce que ce sera suffisant ? En fait, la prolifération des fausses informations passe par la viralité, et il est déjà bien tard quand elles sont retirées. C’est pourquoi le Forum sur l’information et la démocratie appelle les plateformes à favoriser un système d’infos certifiées, et adapté à l’IA, avec des normes qui garantissent l’authenticité et la provenance, bref une sorte de traçabilité des contenus, un peu comme dans l’alimentaire.
Il y a urgence : une étude de Sopra Steria, publiée mardi, montre que 74% des personnes interrogées estiment être capables de faire le tri entre les vraies et les fausses infos, mais que les deux tiers adhèrent en parallèle à une infox testée dans l’étude. Comme dit David Colon, professeur à Sciences Po, face aux ingérences russes : « La France est un ventre mou, car il y a une trop faible confiance dans les institutions, le processus électoral et les médias. »
0 Listeners
1 Listeners
3 Listeners
1 Listeners
12 Listeners
0 Listeners
0 Listeners
1 Listeners
0 Listeners
1 Listeners
0 Listeners
3 Listeners
1 Listeners
18 Listeners
4 Listeners
0 Listeners
1 Listeners
4 Listeners
2 Listeners
4 Listeners
0 Listeners
0 Listeners
0 Listeners
1 Listeners
0 Listeners
0 Listeners
5 Listeners
23 Listeners
1 Listeners
1 Listeners
0 Listeners
0 Listeners
0 Listeners
0 Listeners