
Sign up to save your podcasts
Or
Megkíséreljük leleplezni a varázslatot, ami a Transformer nyelvi modelleket képessé teszi a formailag szinte tökéletes beszélgetésre. Ehhez először belenézünk a neurális hálók és mélytanulás múltjába, ehhez olyan fogalmakat nézünk meg, mint a backpropagation, a Common Crawl szerepe a megfelelő méretű korpuszok létrejöttében, a rekurrens neurális hálózatok és az LSTM modellek, továbbá elhangzott az egyik atyamester, Yoshua Bengio neve is. Megérkezünk a Google 2017-es cikkéhez (Attention is all you need), amiből a BERT következett, majd az OpenAI-féle GPT-hez. További részletekhez ajánljuk az NLP Demystified oldalt. Az is kiderült, hogy Gyuri a teszteléshez Feri másik műsorát, a csúnyarosszmajom podcastot használta.
Megkíséreljük leleplezni a varázslatot, ami a Transformer nyelvi modelleket képessé teszi a formailag szinte tökéletes beszélgetésre. Ehhez először belenézünk a neurális hálók és mélytanulás múltjába, ehhez olyan fogalmakat nézünk meg, mint a backpropagation, a Common Crawl szerepe a megfelelő méretű korpuszok létrejöttében, a rekurrens neurális hálózatok és az LSTM modellek, továbbá elhangzott az egyik atyamester, Yoshua Bengio neve is. Megérkezünk a Google 2017-es cikkéhez (Attention is all you need), amiből a BERT következett, majd az OpenAI-féle GPT-hez. További részletekhez ajánljuk az NLP Demystified oldalt. Az is kiderült, hogy Gyuri a teszteléshez Feri másik műsorát, a csúnyarosszmajom podcastot használta.
12 Listeners
44 Listeners
8 Listeners
1 Listeners
8 Listeners
3 Listeners
2 Listeners
3 Listeners
21 Listeners
5 Listeners
0 Listeners
3 Listeners
3 Listeners
0 Listeners
1 Listeners