
Sign up to save your podcasts
Or


Send us a text
In de deze aflevering van de greatminds podcast gaat Hildo van Es, IT-architect en medeoprichter van greatminds, in gesprek met Robin Smits van Lumi ML Consulting. Ze ontrafelen de geheimen van pre-training bij LLM's (Large Language Models). Ook hebben ze het erover waarom deze cruciale stap onmisbaar is voor de vooruitgang van kunstmatige intelligentie. Robin vertelt hoe pre-training werkt en legt uit waarom het zo’n belangrijke rol speelt in het totale AI-proces.
🔑 Belangrijkste inzichten:
📱 Connect met onze gast en host:Â
Robin Smits | Hildo van EsÂ
⏱ Tijdstempels:
00:00 – Introductie Hildo en RobinÂ
01:15 – Wat is pre-training en waarom is het zo belangrijk?Â
04:14 – Verschil met RAG, promptengineering en fine-tuningÂ
08:05 – Hoe werkt pre-training in de praktijk?Â
09:57 – Soorten data: tekst, code, multimodaalÂ
16:03 – Vereisten aan hardware: tienduizenden GPU’sÂ
19:00 – Small Language Models en edge deploymentÂ
21:18 – Evaluatie: hoe weet je of pre-training goed gelukt is?Â
22:05 – Risico’s van slechte datasets en verkeerde kennisÂ
23:37 – Continuous pre-training en het risico van vergetenÂ
25:09 – Trends: model collapse, multilingual & multimodal AIÂ
28:09 – Kosten, energieverbruik en kerncentralesÂ
29:17 – Continuous pre-training in het SDLC-procesÂ
34:00 – Afsluiting
By GreatmindsSend us a text
In de deze aflevering van de greatminds podcast gaat Hildo van Es, IT-architect en medeoprichter van greatminds, in gesprek met Robin Smits van Lumi ML Consulting. Ze ontrafelen de geheimen van pre-training bij LLM's (Large Language Models). Ook hebben ze het erover waarom deze cruciale stap onmisbaar is voor de vooruitgang van kunstmatige intelligentie. Robin vertelt hoe pre-training werkt en legt uit waarom het zo’n belangrijke rol speelt in het totale AI-proces.
🔑 Belangrijkste inzichten:
📱 Connect met onze gast en host:Â
Robin Smits | Hildo van EsÂ
⏱ Tijdstempels:
00:00 – Introductie Hildo en RobinÂ
01:15 – Wat is pre-training en waarom is het zo belangrijk?Â
04:14 – Verschil met RAG, promptengineering en fine-tuningÂ
08:05 – Hoe werkt pre-training in de praktijk?Â
09:57 – Soorten data: tekst, code, multimodaalÂ
16:03 – Vereisten aan hardware: tienduizenden GPU’sÂ
19:00 – Small Language Models en edge deploymentÂ
21:18 – Evaluatie: hoe weet je of pre-training goed gelukt is?Â
22:05 – Risico’s van slechte datasets en verkeerde kennisÂ
23:37 – Continuous pre-training en het risico van vergetenÂ
25:09 – Trends: model collapse, multilingual & multimodal AIÂ
28:09 – Kosten, energieverbruik en kerncentralesÂ
29:17 – Continuous pre-training in het SDLC-procesÂ
34:00 – Afsluiting