
Sign up to save your podcasts
Or


I denne uge taler vi om nye LLM-releases, et nyt vidundertrick til at øge performance af LLM-træning og -inference, hvordan AI-agenter kan gå sammen om at udnytte sårbarheder i software, og så introducerer vi et nyt koncept i Verbos Podcast, nemlig “Ugens Repos”. Denne episode er den sidste, inden vi holder sommerferie, men vi er stærkt tilbage den 31. juli 💪
Links:
Better & Faster Large Language Models via Multi-token Prediction: https://arxiv.org/abs/2404.19737
Teams of LLM Agents can Exploit Zero-Day Vulnerabilities: https://arxiv.org/abs/2406.01637
Nemotron-4 340B: https://research.nvidia.com/publication/2024-06_nemotron-4-340b?utm_source=substack&utm_medium=email
Ugens Repos:
NVIDIA Warp: https://github.com/NVIDIA/warp
Vanna AI: https://github.com/vanna-ai/vanna
Instructor: https://github.com/jxnl/instructor
Polars: https://github.com/pola-rs/polars
By Kasper Junge og Jonas Høgh Kyhse-AndersenI denne uge taler vi om nye LLM-releases, et nyt vidundertrick til at øge performance af LLM-træning og -inference, hvordan AI-agenter kan gå sammen om at udnytte sårbarheder i software, og så introducerer vi et nyt koncept i Verbos Podcast, nemlig “Ugens Repos”. Denne episode er den sidste, inden vi holder sommerferie, men vi er stærkt tilbage den 31. juli 💪
Links:
Better & Faster Large Language Models via Multi-token Prediction: https://arxiv.org/abs/2404.19737
Teams of LLM Agents can Exploit Zero-Day Vulnerabilities: https://arxiv.org/abs/2406.01637
Nemotron-4 340B: https://research.nvidia.com/publication/2024-06_nemotron-4-340b?utm_source=substack&utm_medium=email
Ugens Repos:
NVIDIA Warp: https://github.com/NVIDIA/warp
Vanna AI: https://github.com/vanna-ai/vanna
Instructor: https://github.com/jxnl/instructor
Polars: https://github.com/pola-rs/polars