Pix+ Édu

Algorithmes, désinformation et démocratie


Listen Later

Internet et les réseaux sociaux font aujourd’hui partie des premiers lieux de débat sur les sujets politiques. Comment permettre aux élèves d’identifier et de décrypter les mécanismes de production et de diffusion massives des contenus pour développer leur esprit critique ?

TRANSCRIPTION

Internet et les réseaux sociaux font aujourd’hui partie des premiers lieux de débat sur les sujets politiques. Cependant, les règles de cette nouvelle agora engendrent parfois des effets délétères sur la liberté d’expression. Identifier et décrypter ces mécanismes avec les élèves les aide à se prémunir de leurs effets négatifs.

  • Comment les messages sont-ils amplifiés sur les réseaux sociaux ?
  • Comment d’autres sont-ils silenciés par ces mécanismes ?
  • Quel rôle jouent les IA génératives dans la production de faux contenus ?
  • Quelle est la responsabilité du modèle économique des plateformes dans ces mécanismes ?
  • C'est ce que nous allons voir dans cette vidéo !
  • Sur nos réseaux sociaux, nous ne voyons pas l’intégralité de ce qui est posté. Des algorithmes arbitrent à notre place les contenus les plus pertinents à nous montrer. Mais comment évaluer ce qui plaît ou non sur les plateformes ? C’est là qu'intervient la notion d'engagement. Ce terme recouvre toutes les façons dont les internautes interagissent avec un contenu pour lequel ils ont de l’intérêt : le repartage, le « like », le commentaire… y compris négatif. Une des façons de créer de l'engagement consiste à multiplier les publications clivantes, choquantes, polémiques voire violentes.

    Ainsi, Amnesty International a démontré qu'en 2017, au Myanmar, des groupes ont publié sur le réseau social le plus utilisé d’innombrables appels à la violence contre la minorité des Rohingyas. Ces posts tiraient profit de l'algorithme du réseau social et ont alimenté les violences et les destructions ciblant cette population.

    Une autre technique, l’astroturfing, consiste à faire croire à l'algorithme qu'un contenu fait l'objet d'une adhésion spontanée pour augmenter artificiellement sa popularité. L'un des procédés consiste à multiplier les faux comptes et à liker, reposter et commenter à la chaîne. Par exemple, en mars 2022, à la suite de bombardements russes sur un hôpital ukrainien, une foule de comptes se mettent à dénoncer une mise en scène, en relayant le même message. Il s’agissait en fait de faux comptes pilotés par des programmes informatiques, des bots, conçus pour relayer automatiquement certains contenus.

    D'après une étude, ces bots représenteraient près de 28 % de l'activité en ligne.

    Pour faire prendre conscience aux élèves du poids de ces comptes, l'enseignant peut lancer une « chasse aux bots ». Dans la liste de « followers » d’un compte donné, les élèves doivent les repérer à l'aide de quelques indices : un nom de compte stéréotypé avec de nombreux chiffres, une photo de profil générique, beaucoup de comptes suivis mais aucun qui le suit en retour, aucune photo postée… C’est probablement un bot ! Une fois identifié, ils peuvent signaler le compte dans l'interface et ainsi contribuer à réduire l'activité artificielle.

    À l'inverse, certains groupes souhaitent réduire la portée de messages politiques qu'ils désapprouvent. Une des méthodes consiste à saturer l'espace en multipliant les commentaires négatifs pour empêcher la discussion ou disqualifier le contenu vis-à-vis des algorithmes. Il s'agit parfois de démarches coordonnées entre défenseurs d'une même cause, d'où leur surnom de raid. Par exemple, en 2016, la créatrice Marion Seclin publie trois vidéos pour dénoncer le harcèlement des femmes. En réaction, le créateur de contenus Raptor Dissident publie plusieurs vidéos qui aboutissent à un raid mené par sa communauté. En quelques semaines, des milliers de commentaires ont afflué sur les vidéos de Marion Seclin : insultes, appels à la violence, appel au viol et même menaces de mort.

    Pour évoquer ce phénomène avec les élèves à partir du lycée, les enseignants peuvent les accompagner dans l’analyse de ce type de commentaires pour en comprendre les mécaniques. Sur une plateforme de streaming, on choisit un thème et on confie à chaque groupe une vidéo dont il décortiquera les commentaires suivant leur contenu : est-ce un commentaire critique sur le fond, critique sur la forme, critique sur la personne ? Cette analyse permet d’amener la question du cyberharcèlement dans une approche plus large.

    La manipulation de l'opinion est aussi désormais facilitée par l'utilisation de l'intelligence artificielle générative. Par exemple, en Inde, lors des élections législatives de 2024, les électeurs ont été bombardés de messages du Premier ministre sortant, s’adressant directement à eux. Il s’agissait de deepfakes générées par son parti à l'aide d'une IA pour entretenir sa réputation. Parfois, l'IA est mobilisée non pas pour adapter un message mais pour créer de toutes pièces une fausse information, comme cette fausse conversation entre une journaliste et le président du parti progressiste slovaque, à la veille des élections de 2023. Ce contenu sonore était un faux généré par l'intelligence artificielle pour influencer le scrutin.

    En classe, pour s'entraîner à reconnaître les images générées par l'IA, on peut s’appuyer sur le guide de l'Agence France Presse, régulièrement mis à jour par ses équipes de factchecking. Il donne une méthode simple pour une première vérification basée sur la source, les informations techniques et les indices cachés dans l'image.

    Face à la montée des manipulations de l'information, l'Union européenne a intégré dans la législation Digital Services Act un volet sur la responsabilité des plateformes à contrôler la circulation des fake news. Ainsi, à la veille des élections européennes de 2024, l'entreprise Meta a déclaré mettre en place des dispositifs pour encadrer l'usage de l'IA sur ses plateformes.

    En classe, il est essentiel de sensibiliser les élèves à la responsabilité des réseaux sociaux dans l'émergence de propos violents et clivants, et au succès de ces stratégies. Leur modèle économique publicitaire, qui repose sur le temps passé sur leurs plateformes, encourage ces mécanismes d'interactions conflictuelles.

    En marge de ces réseaux, des plateformes alternatives et décentralisées, développées par les communautés et financées par les dons, comme Mastodon ou Bluesky, construisent des espaces d'échanges non marchands et donc extraits de ces logiques, où aucun algorithme n’intervient dans l’affichage des contenus : des réseaux sociaux où le lien se construit sur la discussion et non sur la confrontation.

    Alors, à nous de donner les clés de compréhension du fonctionnement des réseaux sociaux pour éclairer les futurs citoyens !

    CRÉDITS

    Scénario : Sylvain Lapoix

    Direction de publication : Marie-Caroline Missir
    Production : Réseau Canopé
    Partenariat : Pix
    Ressource produite avec le soutien du ministère de l’Éducation nationale

    ...more
    View all episodesView all episodes
    Download on the App Store

    Pix+ ÉduBy