
Sign up to save your podcasts
Or
In dieser zweiten Episode des AWS Podcasts "Cloud Horizonte" tauchen Oskar Neumann und Pawel Warmuth erneut mit Mariano Kamp in die technischen Details der Generativen KI (Gen AI) ein. Wir werfen einen Blick auf Pre-Training mit dem BERT-Modell, das die Basis für Large Language Models (LLMs) bildet. Mariano erklärt den Übergang vom supervisierten Lernen zu ungelabelten Daten, erläutert das Konzept des "Lückentexts" zur Wissensgewinnung und beschreibt den Prozess des Finetunings, um ein Pre-Trained-Modell auf spezifische Aufgaben zuzuschneiden. Erfahren Sie, wie diese Techniken das Verständnis von Sprache und Bedeutung in Gen AI ermöglichen.
Hörerfragen für nehmen wir gerne als Email an: [email protected]
Links:
In dieser zweiten Episode des AWS Podcasts "Cloud Horizonte" tauchen Oskar Neumann und Pawel Warmuth erneut mit Mariano Kamp in die technischen Details der Generativen KI (Gen AI) ein. Wir werfen einen Blick auf Pre-Training mit dem BERT-Modell, das die Basis für Large Language Models (LLMs) bildet. Mariano erklärt den Übergang vom supervisierten Lernen zu ungelabelten Daten, erläutert das Konzept des "Lückentexts" zur Wissensgewinnung und beschreibt den Prozess des Finetunings, um ein Pre-Trained-Modell auf spezifische Aufgaben zuzuschneiden. Erfahren Sie, wie diese Techniken das Verständnis von Sprache und Bedeutung in Gen AI ermöglichen.
Hörerfragen für nehmen wir gerne als Email an: [email protected]
Links:
14 Listeners
200 Listeners
135 Listeners
54 Listeners
31 Listeners
31 Listeners
10 Listeners
12 Listeners
64 Listeners
22 Listeners
7 Listeners
85 Listeners
29 Listeners