
Sign up to save your podcasts
Or


Megkíséreljük leleplezni a varázslatot, ami a Transformer nyelvi modelleket képessé teszi a formailag szinte tökéletes beszélgetésre. Ehhez először belenézünk a neurális hálók és mélytanulás múltjába, ehhez olyan fogalmakat nézünk meg, mint a backpropagation, a Common Crawl szerepe a megfelelő méretű korpuszok létrejöttében, a rekurrens neurális hálózatok és az LSTM modellek, továbbá elhangzott az egyik atyamester, Yoshua Bengio neve is. Megérkezünk a Google 2017-es cikkéhez (Attention is all you need), amiből a BERT következett, majd az OpenAI-féle GPT-hez. További részletekhez ajánljuk az NLP Demystified oldalt. Az is kiderült, hogy Gyuri a teszteléshez Feri másik műsorát, a csúnyarosszmajom podcastot használta.
By Láncreakció ClementineMegkíséreljük leleplezni a varázslatot, ami a Transformer nyelvi modelleket képessé teszi a formailag szinte tökéletes beszélgetésre. Ehhez először belenézünk a neurális hálók és mélytanulás múltjába, ehhez olyan fogalmakat nézünk meg, mint a backpropagation, a Common Crawl szerepe a megfelelő méretű korpuszok létrejöttében, a rekurrens neurális hálózatok és az LSTM modellek, továbbá elhangzott az egyik atyamester, Yoshua Bengio neve is. Megérkezünk a Google 2017-es cikkéhez (Attention is all you need), amiből a BERT következett, majd az OpenAI-féle GPT-hez. További részletekhez ajánljuk az NLP Demystified oldalt. Az is kiderült, hogy Gyuri a teszteléshez Feri másik műsorát, a csúnyarosszmajom podcastot használta.

10 Listeners

49 Listeners

13 Listeners

9 Listeners

1 Listeners

6 Listeners

24 Listeners

14 Listeners

21 Listeners

4 Listeners

15 Listeners

1 Listeners

3 Listeners

3 Listeners

0 Listeners