
Sign up to save your podcasts
Or


Stargate, méga projet d’IA lancé aux États-Unis, marque une nouvelle étape dans la course à l’innovation dans le domaine de l'intelligence artificielle. Au même moment, Donald Trump abroge le décret Biden qui encadrait l'IA. Quels sont les risques d’une IA affranchie de toute régulation ? Dans ce contexte d'accélération des innovations technologiques, comment permettre le développement d'IA responsables ?
L'amplification de la désinformation en ligne menace les démocraties et mobilise les énergies dans la recherche. Un nouveau centre de recherche appliquée dédié aux technologies et désordres informationnels vient d'être inauguré en France, issu de Good in Tech, un partenariat entre l'IMT (Institut Mines-Télécom) - Business School et Sciences Po. Il promeut « l'innovation numérique responsable », s'intéresse à l'efficacité des contremesures pour limiter la propagation de la désinformation, ou encore au développement de technologies IA pour labelliser le contenu en ligne, comme les watermarks. Il s'agit aussi, en matière de gouvernance de l'innovation, de pouvoir gérer, ou même anticiper les campagnes de désinformation.
Notre invitée est la fondatrice de ce centre de recherche, Christine Balagué est professeure des Universités en Sciences de Gestion, à l'Institut Mines-Télécom Business School. Elle réagit notamment à l'annonce du méga projet Stargate par Donald Trump, une entreprise débarrassée de toute régulation sur l'IA.
Nous faisons aussi le point sur les usages de l'IA dans nos rédactions, avec Bruno Flaven, coordinateur Intelligence Artificielle à FMM.
La chronique de Grégory Genevrier de la cellule info vérif de RFI : Mythe ou réalité ? Les risques associés aux smartphones près des bouteilles de gaz.
By RFI5
11 ratings
Stargate, méga projet d’IA lancé aux États-Unis, marque une nouvelle étape dans la course à l’innovation dans le domaine de l'intelligence artificielle. Au même moment, Donald Trump abroge le décret Biden qui encadrait l'IA. Quels sont les risques d’une IA affranchie de toute régulation ? Dans ce contexte d'accélération des innovations technologiques, comment permettre le développement d'IA responsables ?
L'amplification de la désinformation en ligne menace les démocraties et mobilise les énergies dans la recherche. Un nouveau centre de recherche appliquée dédié aux technologies et désordres informationnels vient d'être inauguré en France, issu de Good in Tech, un partenariat entre l'IMT (Institut Mines-Télécom) - Business School et Sciences Po. Il promeut « l'innovation numérique responsable », s'intéresse à l'efficacité des contremesures pour limiter la propagation de la désinformation, ou encore au développement de technologies IA pour labelliser le contenu en ligne, comme les watermarks. Il s'agit aussi, en matière de gouvernance de l'innovation, de pouvoir gérer, ou même anticiper les campagnes de désinformation.
Notre invitée est la fondatrice de ce centre de recherche, Christine Balagué est professeure des Universités en Sciences de Gestion, à l'Institut Mines-Télécom Business School. Elle réagit notamment à l'annonce du méga projet Stargate par Donald Trump, une entreprise débarrassée de toute régulation sur l'IA.
Nous faisons aussi le point sur les usages de l'IA dans nos rédactions, avec Bruno Flaven, coordinateur Intelligence Artificielle à FMM.
La chronique de Grégory Genevrier de la cellule info vérif de RFI : Mythe ou réalité ? Les risques associés aux smartphones près des bouteilles de gaz.

14 Listeners

302 Listeners

44 Listeners

52 Listeners

113 Listeners

12 Listeners

36 Listeners

39 Listeners

11 Listeners

75 Listeners

10 Listeners

3 Listeners

0 Listeners

14 Listeners

0 Listeners

25 Listeners

4 Listeners

2 Listeners

0 Listeners

29 Listeners

22 Listeners

0 Listeners

3 Listeners

4 Listeners

1 Listeners

4 Listeners

0 Listeners

1 Listeners

47 Listeners

12 Listeners

17 Listeners

0 Listeners

0 Listeners

0 Listeners

0 Listeners