
Sign up to save your podcasts
Or
In dieser Episode beleuchten wir ein wichtiges Thema: Halluzination bei KI-Modellen wie ChatGPT, Claude, Gemini oder Mistral.
Wer kennt es nicht? Manchmal erzählen diese Modelle nicht ganz die Wahrheit, obwohl sie sehr überzeugend klingen. Wir gehen der Frage nach, warum das passiert.
Grundsätzlich basieren KI-Modelle auf Kontextwahrscheinlichkeit. Ihre Antworten können vom Trainingsmaterial, vom Arbeitsmaterial (z.B. hochgeladene Dokumente) oder vom Prompt beeinflusst werden.
Informationen im Trainingsmaterial werden in sogenannte Tokens zerlegt – komprimierte Einheiten. Ein Wort wie "Erdbeere" existiert für das Modell nicht als Ganzes, sondern nur als Kombination dieser Tokens.
Das macht die Modelle schnell, aber es fehlt ihnen das tatsächliche Wissen und die reale Weltkenntnis, wie sie Menschen besitzen.
Wenn der Kontext nicht klar definiert ist, erfindet das Modell einfach etwas. Dieses Phänomen der Halluzination ist oft sogar absichtlich Teil des Designs ("im Sinne der Erfinderin"), denn die Modelle sind darauf ausgelegt, immer eine Antwort zu liefern.
Das Füllen von Wissenslücken mit objektiv falschen Inhalten, die als wahr dargestellt werden, wird als Konfabulation bezeichnet
Ich erklär Dir, warum Halluzinationen vermutlich nie zu 100% eliminierbar sein werden und wie selbst neuere, cleverere Modelle damit noch Schwierigkeiten haben.
Bei Fragen: #fragRoger: http://roger.social/
Abonnier auch meinen Newsletter: http://www.fragroger.social/
Oder schau bei uns in der KI Community: https://www.ki-update.com
Und wenn Du mehr KI anwenden willst, melde dich gerne bei mir: https://top-speakers.ch/roger-l-basler-de-roca/
Wer bin ich?
Roger Basler de Roca | Msc Digital Business | Phd Candidate. Als Digital Unternehmer, Buch Autor und Top 100 Speaker und Trainer bin ich mit Leidenschaft in digitalen Welten unterwegs, mit einer Vorliebe für Künstliche Intelligenz und Algorithmen seit über 25 Jahren.
Zu meinen Spezialgebieten gehört der Aufbau von digitalen Geschäftsmodellen und Wachstumsmodellen durch educational consulting.
In dieser Episode beleuchten wir ein wichtiges Thema: Halluzination bei KI-Modellen wie ChatGPT, Claude, Gemini oder Mistral.
Wer kennt es nicht? Manchmal erzählen diese Modelle nicht ganz die Wahrheit, obwohl sie sehr überzeugend klingen. Wir gehen der Frage nach, warum das passiert.
Grundsätzlich basieren KI-Modelle auf Kontextwahrscheinlichkeit. Ihre Antworten können vom Trainingsmaterial, vom Arbeitsmaterial (z.B. hochgeladene Dokumente) oder vom Prompt beeinflusst werden.
Informationen im Trainingsmaterial werden in sogenannte Tokens zerlegt – komprimierte Einheiten. Ein Wort wie "Erdbeere" existiert für das Modell nicht als Ganzes, sondern nur als Kombination dieser Tokens.
Das macht die Modelle schnell, aber es fehlt ihnen das tatsächliche Wissen und die reale Weltkenntnis, wie sie Menschen besitzen.
Wenn der Kontext nicht klar definiert ist, erfindet das Modell einfach etwas. Dieses Phänomen der Halluzination ist oft sogar absichtlich Teil des Designs ("im Sinne der Erfinderin"), denn die Modelle sind darauf ausgelegt, immer eine Antwort zu liefern.
Das Füllen von Wissenslücken mit objektiv falschen Inhalten, die als wahr dargestellt werden, wird als Konfabulation bezeichnet
Ich erklär Dir, warum Halluzinationen vermutlich nie zu 100% eliminierbar sein werden und wie selbst neuere, cleverere Modelle damit noch Schwierigkeiten haben.
Bei Fragen: #fragRoger: http://roger.social/
Abonnier auch meinen Newsletter: http://www.fragroger.social/
Oder schau bei uns in der KI Community: https://www.ki-update.com
Und wenn Du mehr KI anwenden willst, melde dich gerne bei mir: https://top-speakers.ch/roger-l-basler-de-roca/
Wer bin ich?
Roger Basler de Roca | Msc Digital Business | Phd Candidate. Als Digital Unternehmer, Buch Autor und Top 100 Speaker und Trainer bin ich mit Leidenschaft in digitalen Welten unterwegs, mit einer Vorliebe für Künstliche Intelligenz und Algorithmen seit über 25 Jahren.
Zu meinen Spezialgebieten gehört der Aufbau von digitalen Geschäftsmodellen und Wachstumsmodellen durch educational consulting.