
Sign up to save your podcasts
Or


Send us a text
In dieser Episode geben wir einen kurzen Überblick über ausgewählte spannende wissenschaftliche Veröffentlichung der KW27. Vor allem sind es folgende vier Papers, die wir für diese Sendung ausgewählt haben:
- Ding et. al.: LONGNET: Scaling Transformers to 1,000,000,000 Tokens https://arxiv.org/pdf/2307.02486.pdf
- Chang et. al.: A Survey on Evaluation of Large LanguageModels (https://arxiv.org/pdf/2307.03109.pdf)
- Ghosal et. al.: FLACUNA: Unleashing the Problem Solving Power of VICUNA using FLAN Fine-Tuning (https://arxiv.org/pdf/2307.02053v1.pdf)
- Chia et. al.: INSTRUCTEVAL: Towards Holistic Evaluation of Instruction-Tuned Large Language Models (https://arxiv.org/pdf/2306.04757.pdf)
Support the show
By Sigurd Schacht, Carsten LanquillonSend us a text
In dieser Episode geben wir einen kurzen Überblick über ausgewählte spannende wissenschaftliche Veröffentlichung der KW27. Vor allem sind es folgende vier Papers, die wir für diese Sendung ausgewählt haben:
- Ding et. al.: LONGNET: Scaling Transformers to 1,000,000,000 Tokens https://arxiv.org/pdf/2307.02486.pdf
- Chang et. al.: A Survey on Evaluation of Large LanguageModels (https://arxiv.org/pdf/2307.03109.pdf)
- Ghosal et. al.: FLACUNA: Unleashing the Problem Solving Power of VICUNA using FLAN Fine-Tuning (https://arxiv.org/pdf/2307.02053v1.pdf)
- Chia et. al.: INSTRUCTEVAL: Towards Holistic Evaluation of Instruction-Tuned Large Language Models (https://arxiv.org/pdf/2306.04757.pdf)
Support the show

61 Listeners

199 Listeners

111 Listeners

9 Listeners

16 Listeners

13 Listeners

59 Listeners

324 Listeners

9 Listeners

114 Listeners

17 Listeners

4 Listeners

1 Listeners

1 Listeners