
Sign up to save your podcasts
Or


Fala galera, nesse episódio eu explico tudo que sei sobre Transformers. Falo da arquitetura, explico a formula de atenção, encoder, decoder, self-supervised learning, positional encoding, tokenisation, inductive bias, Vision-Transformers, receiptive fields...
Foi o episódio mais tecnico que eu ja gravei e eu espero que voces gostem! Vale a pena escutar esse episódio com o paper do transformer aberto.
Paper Transformers: https://arxiv.org/pdf/1706.03762.pdf
Link do video explicando Next Token Prediction: https://www.linkedin.com/posts/zainhas_the-most-clearest-and-crisp-explanation-ugcPost-7132561633280692224-63AX?utm_source=share&utm_medium=member_desktop
Instagram: https://www.instagram.com/podcast.lifewithai/
Linkedin: https://www.linkedin.com/company/life-with-ai
By Filipe LauarFala galera, nesse episódio eu explico tudo que sei sobre Transformers. Falo da arquitetura, explico a formula de atenção, encoder, decoder, self-supervised learning, positional encoding, tokenisation, inductive bias, Vision-Transformers, receiptive fields...
Foi o episódio mais tecnico que eu ja gravei e eu espero que voces gostem! Vale a pena escutar esse episódio com o paper do transformer aberto.
Paper Transformers: https://arxiv.org/pdf/1706.03762.pdf
Link do video explicando Next Token Prediction: https://www.linkedin.com/posts/zainhas_the-most-clearest-and-crisp-explanation-ugcPost-7132561633280692224-63AX?utm_source=share&utm_medium=member_desktop
Instagram: https://www.instagram.com/podcast.lifewithai/
Linkedin: https://www.linkedin.com/company/life-with-ai

108 Listeners

178 Listeners

91 Listeners

43 Listeners

1,010 Listeners

121 Listeners

77 Listeners

16 Listeners

34 Listeners

170 Listeners

33 Listeners

7 Listeners

16 Listeners

2 Listeners

1 Listeners