
Sign up to save your podcasts
Or


Fala galera, nesse episódio eu explico tudo que sei sobre Transformers. Falo da arquitetura, explico a formula de atenção, encoder, decoder, self-supervised learning, positional encoding, tokenisation, inductive bias, Vision-Transformers, receiptive fields...
Foi o episódio mais tecnico que eu ja gravei e eu espero que voces gostem! Vale a pena escutar esse episódio com o paper do transformer aberto.
Paper Transformers: https://arxiv.org/pdf/1706.03762.pdf
Link do video explicando Next Token Prediction: https://www.linkedin.com/posts/zainhas_the-most-clearest-and-crisp-explanation-ugcPost-7132561633280692224-63AX?utm_source=share&utm_medium=member_desktop
Instagram: https://www.instagram.com/podcast.lifewithai/
Linkedin: https://www.linkedin.com/company/life-with-ai
By Filipe LauarFala galera, nesse episódio eu explico tudo que sei sobre Transformers. Falo da arquitetura, explico a formula de atenção, encoder, decoder, self-supervised learning, positional encoding, tokenisation, inductive bias, Vision-Transformers, receiptive fields...
Foi o episódio mais tecnico que eu ja gravei e eu espero que voces gostem! Vale a pena escutar esse episódio com o paper do transformer aberto.
Paper Transformers: https://arxiv.org/pdf/1706.03762.pdf
Link do video explicando Next Token Prediction: https://www.linkedin.com/posts/zainhas_the-most-clearest-and-crisp-explanation-ugcPost-7132561633280692224-63AX?utm_source=share&utm_medium=member_desktop
Instagram: https://www.instagram.com/podcast.lifewithai/
Linkedin: https://www.linkedin.com/company/life-with-ai

105 Listeners

178 Listeners

93 Listeners

42 Listeners

1,011 Listeners

120 Listeners

78 Listeners

15 Listeners

40 Listeners

166 Listeners

29 Listeners

8 Listeners

15 Listeners

3 Listeners

1 Listeners