🏋️🏻 Puntata in solitaria con Luca, che vi tiene compagnia raccontando ciò che ha studiato di recente sul training delle LLM, con un occhio particolare alla fase di post-training. 🪄 Si comincia con una panoramica generale sull'addestramento delle LLM, entriamo poi nel dettaglio del Supervised Fine-Tuning cercando di capire come funziona questa fase, a cosa serve e che tipo di dati vengono utilizzati. 💫 Continuiamo con un ampio spazio dedicato al Reinforcement Learning: perché viene usato durante il post-training? Quali problemi risolve e come funzionano alcuni degli algoritmi più citati in questo contesto? 💬 L'argomento può sembrare complesso ma è molto interessante e di grande attualità. Se la puntata vi è piaciuta fatecelo sapere e se vi fa piacere lasciate una recensione!Supporta il PointerPodcast
La nostra pagina supportaciUnitevi al nostro gruppo Telegram per discutere della puntataLascia una recensione su SpotifyLascia una recensione su Apple PodcastAcquista il prodotto della settimana o parti da uno dei link qui sotto per fare acquisti su Amazon!Prodotto della settimana
Build a Large Language Model from ScratchNote Puntata
Post-training 101A Primer on LLM Post-TrainingCME 295 - Transformers & Large Language ModelsStanford CME295 Transformers & LLMs | Autumn 2025 | Lecture 6 - LLM ReasoningTraining language models to follow instructions with human feedbackConstitutional AI: Harmlessness from AI FeedbackLlama 2: Open Foundation and Fine-Tuned Chat ModelsI nostri contatti:
Gruppo TelegramLinkedInTwitchYouTubeInstagramTwitterMail