
Sign up to save your podcasts
Or


Plongez dans le monde fascinant des intelligences artificielles avec cette interview passionnante de Laurent Charlin, chercheur au centre MILA de Montréal, qui explique comment les IA génératives perdent la mémoire lorsqu'elles apprennent de nouvelles choses.
Situé à Montréal (Canada), le Mila est un centre unique au monde, entièrement consacré à l'intelligence artificielle. Fondé en 1993 par le professeur Joshua Bengio, il rassemble les meilleurs experts du secteur, issus de la recherche et du monde de l'entreprise.
Laurent Charlin, membre académique principal à Mila, professeur agrégé à HEC Montréal et titulaire d'une Chaire en IA, est spécialiste des systèmes d’apprentissage profond, des modèles génératifs et du traitement automatique des langues (NLP). Il travaille sur une problématique insolite : les grands modèles de langage (LLM), comme ChatGPT, ont tendance à oublier ce qu'ils ont appris lorsque l'on tente de leur apprendre de nouvelles choses.
Déroulé de l'interview :
-----------
♥️ Soutien
https://donorbox.org/monde-numerique
🗞️ Newsletter
https://mondenumerique.substack.com
📹 Chaîne YouTube
https://www.youtube.com/@mondenumerique
Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
By Jerome Colombain5
44 ratings
Plongez dans le monde fascinant des intelligences artificielles avec cette interview passionnante de Laurent Charlin, chercheur au centre MILA de Montréal, qui explique comment les IA génératives perdent la mémoire lorsqu'elles apprennent de nouvelles choses.
Situé à Montréal (Canada), le Mila est un centre unique au monde, entièrement consacré à l'intelligence artificielle. Fondé en 1993 par le professeur Joshua Bengio, il rassemble les meilleurs experts du secteur, issus de la recherche et du monde de l'entreprise.
Laurent Charlin, membre académique principal à Mila, professeur agrégé à HEC Montréal et titulaire d'une Chaire en IA, est spécialiste des systèmes d’apprentissage profond, des modèles génératifs et du traitement automatique des langues (NLP). Il travaille sur une problématique insolite : les grands modèles de langage (LLM), comme ChatGPT, ont tendance à oublier ce qu'ils ont appris lorsque l'on tente de leur apprendre de nouvelles choses.
Déroulé de l'interview :
-----------
♥️ Soutien
https://donorbox.org/monde-numerique
🗞️ Newsletter
https://mondenumerique.substack.com
📹 Chaîne YouTube
https://www.youtube.com/@mondenumerique
Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.

41 Listeners

12 Listeners

2 Listeners

24 Listeners

12 Listeners

11 Listeners

3 Listeners

132 Listeners

2 Listeners

75 Listeners

3 Listeners

5 Listeners

22 Listeners

3 Listeners

3 Listeners