Parce que… c’est l’épisode 0x576!
Shameless plug
10 au 18 mai 2025 - NorthSec
03 au 05 juin 2025 - Infosecurity Europe
27 et 29 juin 2025 - LeHACK
12 au 17 octobre 2025 - Objective by the sea v8
10 au 12 novembre 2025 - IAQ - Le Rendez-vous IA Québec
17 au 20 novembre 2025 - European Cyber Week
25 et 26 février 2026 - SéQCure 2026Description
Le podcast présente une table ronde animée par le présentateur avec quatre intervenants lors de la deuxième journée Humaco: Ingrid Dumont, Audrey Vermeulen, Grégory Alexander et Jérôme de Cooman. Cette rencontre transdisciplinaire a permis de partager réflexions et expériences autour de l’intelligence artificielle, de l’éthique, de la législation et de la science-fiction.
Présentations des intervenants
Audrey Vermeulen a présenté sur l’éthique by design de l’intelligence artificielle, explorant comment l’intelligence collective et l’imagination morale peuvent servir la conception éthique des systèmes d’IA.
Grégory Alexander a exposé le concept de “Science Fiction Prototyping”, analysant comment les films de science-fiction peuvent être utilisés comme outils d’anticipation des évolutions technologiques et de leurs impacts sociétaux.
Jérôme de Cooman a abordé les concepts de responsabilité et de redevabilité algorithmique, tentant de déterminer qui est responsable de quoi et qui doit rendre des comptes à qui dans l’écosystème de l’IA.
Thèmes principaux abordés
L’humain comme maillon fort face à l’IA
Un consensus s’est dégagé autour de l’idée que l’humain n’est pas le maillon faible mais bien le maillon fort du système. Les participants ont souligné l’importance de l’esprit critique et de l’intelligence collective pour maîtriser l’IA.
Audrey Vermeulen a insisté sur l’importance de cette intelligence collective pour faire émerger et orienter l’IA, tout en maintenant un contrôle éthique. L’humain reste fondamentalement celui qui “fait émerger l’intelligence artificielle” et qui doit conserver la maîtrise.
Éthique by design et responsabilité
Le concept d’“éthique by design” a été largement discuté. Audrey Vermeulen a expliqué que cette approche peut intervenir à plusieurs niveaux:
Dans l’intention de départ et la raison d’être d’un service d’IA
Dans la nature intrinsèque de ce que va produire l’artefact
Dans le processus même de conception et de fabrication
Dans le choix et le traitement des données utiliséesJérôme de Cooman a noté que les choix réglementaires reflètent des choix éthiques, citant les travaux du groupe d’experts de haut niveau indépendants nommés par la Commission européenne. Bien que le législateur européen ait préféré une logique de sécurité du produit plutôt qu’une éthique dès la conception, il existe une “congruence ontologique” entre les développements éthiques et la réglementation adoptée.
Science-fiction comme outil d’anticipation
Grégory Alexander a démontré comment la science-fiction a souvent anticipé les enjeux technologiques actuels. Il a évoqué des œuvres comme Robby le Robot et Ex Machina pour illustrer comment ces fictions explorent l’éthique et la place de l’humain face aux avancées technologiques.
Les participants ont souligné que la science-fiction permet de:
Partager en masse des réflexions éthiques complexes
Désacraliser certains sujets pour permettre le débat sociétal
Tester et explorer les dilemmes éthiques (comme le fameux “trolley problem” appliqué aux voitures autonomes)
Développer l’imagination morale, essentielle pour affronter les défis éthiquesResponsabilité et cadre réglementaire
Jérôme de Cooman a expliqué le cadre réglementaire européen sur l’IA, notamment le règlement européen récemment adopté. Il a souligné que contrairement à d’autres technologies, l’IA impose une responsabilité partagée entre tous les acteurs de la chaîne de valeur.
Les intervenants ont discuté des défis de la responsabilité dans des cas concrets comme celui des voitures autonomes, soulevant des questions comme:
Qui est responsable en cas d’accident?
Comment déterminer si c’est une défaillance du système, du capteur, ou une situation imprévue?
Quel rôle jouent les assurances dans ce nouveau paradigme?Données, vie privée et différences culturelles
Les participants ont évoqué les différentes approches culturelles concernant les données personnelles:
L’Europe avec une forte protection des données personnelles
L’Amérique avec une approche plus commerciale des données
L’Asie, notamment la Chine, avec une transparence totale envers l’ÉtatLa criticité des données a été abordée sous deux angles:
Les données sensibles par nature (données personnelles ou stratégiques)
Les données qui deviennent sensibles par croisement ou par leur utilisationLe temps, la réflexion et l’éducation
Face à l’accélération technologique, les intervenants ont plaidé pour:
Prendre le temps de la réflexion, particulièrement dans la recherche
Valoriser les travaux anciens qui ont souvent bénéficié d’une réflexion approfondie
Éduquer les jeunes aux enjeux de l’IA de manière non alarmiste mais responsable
Développer l’esprit critique et l’imagination morale, notamment par la fictionNotes
HumacoCollaborateurs
Nicolas-Loïc Fortin
Ingrid Dumont
Jérôme de Cooman
Gregory Alexander
Audrey VermeulenCrédits
Montage par Intrasecure inc
Locaux réels par Aix-Marseille Université