
Sign up to save your podcasts
Or
Vanligvis studerer vi maskinlæringsmodeller hver for seg selv. Kan et AI-systemer som består av mange kompliserte maskinlæringsmodeller, og som tilsynelatende blir bedre ved trening, faktisk få algoritmer som blir dårligere? Dette svarer vi på i denne podcasten.
Podcasten er en del av en serie hvor vi tar for oss artikler fra konferansen NeurIPS 2021, og denne episoden handler om «Fixes That Fail: Self-Defeating Improvements in Machine-Learning Systems» av Ruihan Wu, Chuan Guo, Awni Hannun og Laurens van der Maaten.
Vanligvis studerer vi maskinlæringsmodeller hver for seg selv. Kan et AI-systemer som består av mange kompliserte maskinlæringsmodeller, og som tilsynelatende blir bedre ved trening, faktisk få algoritmer som blir dårligere? Dette svarer vi på i denne podcasten.
Podcasten er en del av en serie hvor vi tar for oss artikler fra konferansen NeurIPS 2021, og denne episoden handler om «Fixes That Fail: Self-Defeating Improvements in Machine-Learning Systems» av Ruihan Wu, Chuan Guo, Awni Hannun og Laurens van der Maaten.
105 Listeners
24 Listeners
1 Listeners
14 Listeners
75 Listeners
18 Listeners
31 Listeners
105 Listeners
90 Listeners
17 Listeners
67 Listeners
13 Listeners
13 Listeners
9 Listeners
0 Listeners