
Sign up to save your podcasts
Or


Send us Fan Mail
In dieser Episode geben wir einen kurzen Überblick über ausgewählte spannende wissenschaftliche Veröffentlichung der KW27. Vor allem sind es folgende vier Papers, die wir für diese Sendung ausgewählt haben:
- Ding et. al.: LONGNET: Scaling Transformers to 1,000,000,000 Tokens https://arxiv.org/pdf/2307.02486.pdf
- Chang et. al.: A Survey on Evaluation of Large LanguageModels (https://arxiv.org/pdf/2307.03109.pdf)
- Ghosal et. al.: FLACUNA: Unleashing the Problem Solving Power of VICUNA using FLAN Fine-Tuning (https://arxiv.org/pdf/2307.02053v1.pdf)
- Chia et. al.: INSTRUCTEVAL: Towards Holistic Evaluation of Instruction-Tuned Large Language Models (https://arxiv.org/pdf/2306.04757.pdf)
Support the show
By Sigurd Schacht, Carsten LanquillonSend us Fan Mail
In dieser Episode geben wir einen kurzen Überblick über ausgewählte spannende wissenschaftliche Veröffentlichung der KW27. Vor allem sind es folgende vier Papers, die wir für diese Sendung ausgewählt haben:
- Ding et. al.: LONGNET: Scaling Transformers to 1,000,000,000 Tokens https://arxiv.org/pdf/2307.02486.pdf
- Chang et. al.: A Survey on Evaluation of Large LanguageModels (https://arxiv.org/pdf/2307.03109.pdf)
- Ghosal et. al.: FLACUNA: Unleashing the Problem Solving Power of VICUNA using FLAN Fine-Tuning (https://arxiv.org/pdf/2307.02053v1.pdf)
- Chia et. al.: INSTRUCTEVAL: Towards Holistic Evaluation of Instruction-Tuned Large Language Models (https://arxiv.org/pdf/2306.04757.pdf)
Support the show

62 Listeners

189 Listeners

104 Listeners

10 Listeners

16 Listeners

12 Listeners

67 Listeners

339 Listeners

12 Listeners

136 Listeners

19 Listeners

5 Listeners

1 Listeners

1 Listeners