
Sign up to save your podcasts
Or


In dieser Solo-Episode von „Kollegin KI“ schickt Host Max Mundhenke den Chatbot in der Bücherei. Also nur im übertragenden Sinn. Denn der lesende Bot ist sein anschauliches Bild, um die Funktionsweise von Large Language Models zu erläutern. Außerdem erklärt er, warum KI-Chatbots so oft und so überzeugend lügen – und wie man ihnen helfen kann, künftig näher an der Wahrheit zu bleiben.
Das sind zentralen Aspekte von KI, die Max Mundhenke in Folge 5 von „Kollegin KI“ erläutert:
Wo die Ursprünge der künstlichen Intelligenz liegen und was hinter der sogenannten Transformer-Technologie steckt, auf der heutige KI-Chatbots basieren
Wieso man die Funktionsweise von Large-Language-Models (LLMs) mit einem Roboter in einer riesigen Bibliothek vergleichen kann
Weshalb Antworten von LLMs häufig auf veralteten Informationen beruhen und wie die Anbieter das Thema Aktualität in den Griff bekommen wollen.
Warum die KI bei der richtigen Einordnung von Informationen dem Menschen bislang unterlegen ist
Weshalb Menschen dazu neigen, KI blind zu vertrauen, obwohl Antworten oft fehlerhaft und Quellen mitunter komplett erfunden sind
Wie man durch handwerklich gutes Prompting und die Bereitstellung von zusätzlichen Informationen für die KI zu präziseren und nützlicheren Antworten kommt
Der Chatbot zur Folge: bio.to/KolleginKI_Chatbot
Die von Max erwähnte EBU-Studie: https://www.ebu.ch/Report/MIS-BBC/NIAI2025.pdf
Mehr zu Max:
Produktion: Podstars by OMR
By Podstars by OMR, Max MundhenkeIn dieser Solo-Episode von „Kollegin KI“ schickt Host Max Mundhenke den Chatbot in der Bücherei. Also nur im übertragenden Sinn. Denn der lesende Bot ist sein anschauliches Bild, um die Funktionsweise von Large Language Models zu erläutern. Außerdem erklärt er, warum KI-Chatbots so oft und so überzeugend lügen – und wie man ihnen helfen kann, künftig näher an der Wahrheit zu bleiben.
Das sind zentralen Aspekte von KI, die Max Mundhenke in Folge 5 von „Kollegin KI“ erläutert:
Wo die Ursprünge der künstlichen Intelligenz liegen und was hinter der sogenannten Transformer-Technologie steckt, auf der heutige KI-Chatbots basieren
Wieso man die Funktionsweise von Large-Language-Models (LLMs) mit einem Roboter in einer riesigen Bibliothek vergleichen kann
Weshalb Antworten von LLMs häufig auf veralteten Informationen beruhen und wie die Anbieter das Thema Aktualität in den Griff bekommen wollen.
Warum die KI bei der richtigen Einordnung von Informationen dem Menschen bislang unterlegen ist
Weshalb Menschen dazu neigen, KI blind zu vertrauen, obwohl Antworten oft fehlerhaft und Quellen mitunter komplett erfunden sind
Wie man durch handwerklich gutes Prompting und die Bereitstellung von zusätzlichen Informationen für die KI zu präziseren und nützlicheren Antworten kommt
Der Chatbot zur Folge: bio.to/KolleginKI_Chatbot
Die von Max erwähnte EBU-Studie: https://www.ebu.ch/Report/MIS-BBC/NIAI2025.pdf
Mehr zu Max:
Produktion: Podstars by OMR