
Sign up to save your podcasts
Or


In dieser zweiten Episode des AWS Podcasts "Cloud Horizonte" tauchen Oskar Neumann und Pawel Warmuth erneut mit Mariano Kamp in die technischen Details der Generativen KI (Gen AI) ein. Wir werfen einen Blick auf Pre-Training mit dem BERT-Modell, das die Basis für Large Language Models (LLMs) bildet. Mariano erklärt den Übergang vom supervisierten Lernen zu ungelabelten Daten, erläutert das Konzept des "Lückentexts" zur Wissensgewinnung und beschreibt den Prozess des Finetunings, um ein Pre-Trained-Modell auf spezifische Aufgaben zuzuschneiden. Erfahren Sie, wie diese Techniken das Verständnis von Sprache und Bedeutung in Gen AI ermöglichen.
Hörerfragen für nehmen wir gerne als Email an: [email protected]
Links:
By Amazon Web ServicesIn dieser zweiten Episode des AWS Podcasts "Cloud Horizonte" tauchen Oskar Neumann und Pawel Warmuth erneut mit Mariano Kamp in die technischen Details der Generativen KI (Gen AI) ein. Wir werfen einen Blick auf Pre-Training mit dem BERT-Modell, das die Basis für Large Language Models (LLMs) bildet. Mariano erklärt den Übergang vom supervisierten Lernen zu ungelabelten Daten, erläutert das Konzept des "Lückentexts" zur Wissensgewinnung und beschreibt den Prozess des Finetunings, um ein Pre-Trained-Modell auf spezifische Aufgaben zuzuschneiden. Erfahren Sie, wie diese Techniken das Verständnis von Sprache und Bedeutung in Gen AI ermöglichen.
Hörerfragen für nehmen wir gerne als Email an: [email protected]
Links:

4 Listeners

39 Listeners

52 Listeners

18 Listeners

28 Listeners

12 Listeners

36 Listeners

12 Listeners

16 Listeners

52 Listeners

9 Listeners

333 Listeners

9 Listeners

5 Listeners

3 Listeners