
Sign up to save your podcasts
Or


📉 OpenAI et le spectre de l’AGI
Ilia Sutskever, ex-cofondateur d’OpenAI, aurait proposé un “bunker de l’apocalypse” pour protéger les chercheurs… en cas de chaos après l’arrivée de l’AGI ! 😱🤖 Une révélation choc tirée du livre Empire of AI de Karen Hao.
Ambitions folles ou paranoïa réaliste ?
By Le Manifest📉 OpenAI et le spectre de l’AGI
Ilia Sutskever, ex-cofondateur d’OpenAI, aurait proposé un “bunker de l’apocalypse” pour protéger les chercheurs… en cas de chaos après l’arrivée de l’AGI ! 😱🤖 Une révélation choc tirée du livre Empire of AI de Karen Hao.
Ambitions folles ou paranoïa réaliste ?