
Sign up to save your podcasts
Or
In dieser zweiten Episode des AWS Podcasts "Cloud Horizonte" tauchen Oskar Neumann und Pawel Warmuth erneut mit Mariano Kamp in die technischen Details der Generativen KI (Gen AI) ein. Wir werfen einen Blick auf Pre-Training mit dem BERT-Modell, das die Basis für Large Language Models (LLMs) bildet. Mariano erklärt den Übergang vom supervisierten Lernen zu ungelabelten Daten, erläutert das Konzept des "Lückentexts" zur Wissensgewinnung und beschreibt den Prozess des Finetunings, um ein Pre-Trained-Modell auf spezifische Aufgaben zuzuschneiden. Erfahren Sie, wie diese Techniken das Verständnis von Sprache und Bedeutung in Gen AI ermöglichen.
Hörerfragen für nehmen wir gerne als Email an: [email protected]
Links:
In dieser zweiten Episode des AWS Podcasts "Cloud Horizonte" tauchen Oskar Neumann und Pawel Warmuth erneut mit Mariano Kamp in die technischen Details der Generativen KI (Gen AI) ein. Wir werfen einen Blick auf Pre-Training mit dem BERT-Modell, das die Basis für Large Language Models (LLMs) bildet. Mariano erklärt den Übergang vom supervisierten Lernen zu ungelabelten Daten, erläutert das Konzept des "Lückentexts" zur Wissensgewinnung und beschreibt den Prozess des Finetunings, um ein Pre-Trained-Modell auf spezifische Aufgaben zuzuschneiden. Erfahren Sie, wie diese Techniken das Verständnis von Sprache und Bedeutung in Gen AI ermöglichen.
Hörerfragen für nehmen wir gerne als Email an: [email protected]
Links:
41 Listeners
242 Listeners
152 Listeners
48 Listeners
8 Listeners
7 Listeners
16 Listeners
40 Listeners
11 Listeners
44 Listeners
307 Listeners
23 Listeners
11 Listeners
2 Listeners
67 Listeners