
Sign up to save your podcasts
Or


Der er næppe tvivl om, at behovet for massive mængder regnekraft og ikke mindst et kolossalt energiforbrug er nogle af de store udfordringer ved AI.
Datacentrene, hvor modeller som GPT 4, Llama, Claude og Gemini bliver trænet, er på det nærmeste rødglødende allerede, og kravet om stadig flere GPU'er med stadig flere processorer bliver nok ikke mindre lige med det samme.
Men hvorfor er det egentlig, at machine learning, deep learning og generativ AI kræver så meget processorkraft, og er der noget der tyder på at det vil ændre sig?
Det har jeg spurgt professor Søren Hauberg fra DTU Compute om.
Lyt med! 🤖
LINKS
NYHEDER
AI COMPUTE
By AI Denmark5
11 ratings
Der er næppe tvivl om, at behovet for massive mængder regnekraft og ikke mindst et kolossalt energiforbrug er nogle af de store udfordringer ved AI.
Datacentrene, hvor modeller som GPT 4, Llama, Claude og Gemini bliver trænet, er på det nærmeste rødglødende allerede, og kravet om stadig flere GPU'er med stadig flere processorer bliver nok ikke mindre lige med det samme.
Men hvorfor er det egentlig, at machine learning, deep learning og generativ AI kræver så meget processorkraft, og er der noget der tyder på at det vil ændre sig?
Det har jeg spurgt professor Søren Hauberg fra DTU Compute om.
Lyt med! 🤖
LINKS
NYHEDER
AI COMPUTE

32 Listeners

32 Listeners

8 Listeners

3 Listeners

9 Listeners

25 Listeners

2 Listeners

20 Listeners

110 Listeners

6 Listeners

2 Listeners

1 Listeners

7 Listeners

2 Listeners

6 Listeners