Tech and Tales

#7 Kennt Künstliche Intelligenz noch Grenzen?


Listen Later

Über rassistische KI, dubiose Forschungsergebnisse und die Frage, wie viel besser KI überhaupt noch werden kann


🏁Wir öffnen heute die Motorhaube der Large Language Models und sehen uns an, wie eine KI überhaupt trainiert wird. Wie aus einer großen Menge Text, einem Beatles-Song und einer Wahrscheinlichkeitsrechnung die Künstliche Intelligenz ihre Antworten zusammenbastelt. 

🌎Alles beginnt mit einer gigantischen Menge an Daten. Zeitungsartikel, Webseiten, Studien, Statistiken – die KI verarbeitet alles, was ihr eingespielt wird. Doch was passiert, wenn die KI mit falschen, angeblich wissenschaftlichen Studien gefüttert wird? Die ersten Versionen der KI-Suchmaschinen von Google, Microsoft und Perplexity gaben ungefiltert widerlegte, rassistische Theorien wieder – und ließen sie wie Fakten wirken. Wie konnte das passieren?  

💾Mehr Leistung, mehr Daten – doch wie viel besser kann Künstliche Intelligenz noch werden? Führen mehr Chips, größere Rechenzentren und größere Trainingsmodelle denn überhaupt noch zu besserer KI? 

❄️Die KI-Experten fürchten einen neuen KI-Winter: Die Verbesserungen zwischen den Modellen von Generation zu Generation sind nur noch marginal. Die großen Qualitätssprünge bleiben aus. Woran liegt das? Und kann mehr menschliches Denken im KI-Hirn das Problem beheben – oder muss das Training von KI ganz neu konstruiert werden? 


Quellen:


https://www.platformer.news/openai-google-scaling-laws-anthropic-ai/?ref=platformer-newsletter&attribution_id=6736969a759328000179d684&attribution_type=post

https://www.reuters.com/technology/artificial-intelligence/openai-rivals-seek-new-path-smarter-ai-current-methods-hit-limitations-2024-11-11/

https://www.wired.com/story/google-microsoft-perplexity-scientific-racism-search-results-ai/


...more
View all episodesView all episodes
Download on the App Store

Tech and TalesBy Elisabeth L'Orange