
Sign up to save your podcasts
Or
Vanligvis studerer vi maskinlæringsmodeller hver for seg selv. Kan et AI-systemer som består av mange kompliserte maskinlæringsmodeller, og som tilsynelatende blir bedre ved trening, faktisk få algoritmer som blir dårligere? Dette svarer vi på i denne podcasten.
Podcasten er en del av en serie hvor vi tar for oss artikler fra konferansen NeurIPS 2021, og denne episoden handler om «Fixes That Fail: Self-Defeating Improvements in Machine-Learning Systems» av Ruihan Wu, Chuan Guo, Awni Hannun og Laurens van der Maaten.
Vanligvis studerer vi maskinlæringsmodeller hver for seg selv. Kan et AI-systemer som består av mange kompliserte maskinlæringsmodeller, og som tilsynelatende blir bedre ved trening, faktisk få algoritmer som blir dårligere? Dette svarer vi på i denne podcasten.
Podcasten er en del av en serie hvor vi tar for oss artikler fra konferansen NeurIPS 2021, og denne episoden handler om «Fixes That Fail: Self-Defeating Improvements in Machine-Learning Systems» av Ruihan Wu, Chuan Guo, Awni Hannun og Laurens van der Maaten.
98 Listeners
26 Listeners
3 Listeners
10 Listeners
56 Listeners
16 Listeners
22 Listeners
113 Listeners
87 Listeners
11 Listeners
56 Listeners
14 Listeners
12 Listeners
8 Listeners
2 Listeners