
Sign up to save your podcasts
Or
Megkíséreljük leleplezni a varázslatot, ami a Transformer nyelvi modelleket képessé teszi a formailag szinte tökéletes beszélgetésre. Ehhez először belenézünk a neurális hálók és mélytanulás múltjába, ehhez olyan fogalmakat nézünk meg, mint a backpropagation, a Common Crawl szerepe a megfelelő méretű korpuszok létrejöttében, a rekurrens neurális hálózatok és az LSTM modellek, továbbá elhangzott az egyik atyamester, Yoshua Bengio neve is. Megérkezünk a Google 2017-es cikkéhez (Attention is all you need), amiből a BERT következett, majd az OpenAI-féle GPT-hez. További részletekhez ajánljuk az NLP Demystified oldalt. Az is kiderült, hogy Gyuri a teszteléshez Feri másik műsorát, a csúnyarosszmajom podcastot használta.
Megkíséreljük leleplezni a varázslatot, ami a Transformer nyelvi modelleket képessé teszi a formailag szinte tökéletes beszélgetésre. Ehhez először belenézünk a neurális hálók és mélytanulás múltjába, ehhez olyan fogalmakat nézünk meg, mint a backpropagation, a Common Crawl szerepe a megfelelő méretű korpuszok létrejöttében, a rekurrens neurális hálózatok és az LSTM modellek, továbbá elhangzott az egyik atyamester, Yoshua Bengio neve is. Megérkezünk a Google 2017-es cikkéhez (Attention is all you need), amiből a BERT következett, majd az OpenAI-féle GPT-hez. További részletekhez ajánljuk az NLP Demystified oldalt. Az is kiderült, hogy Gyuri a teszteléshez Feri másik műsorát, a csúnyarosszmajom podcastot használta.
42 Listeners
12 Listeners
45 Listeners
9 Listeners
6 Listeners
21 Listeners
4 Listeners
4 Listeners
22 Listeners
4 Listeners
0 Listeners
3 Listeners
0 Listeners
0 Listeners
3 Listeners