Leading NLP Ninja

ep21: BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding


Listen Later

第21回では,Googleによる双方向コンテキストを獲得した言語モデルBERTの解説をしました.

今回紹介した論文はこちらのissueで解説しています.

github.com/jojonki/arXivNotes/issues/199

番組への支援は,こちらからお待ちしております.www.patreon.com/jojonki

...more
View all episodesView all episodes
Download on the App Store

Leading NLP NinjaBy jojonki