Prompt und Antwort

016 - Geschichte der generativen KI


Listen Later

ChatGPT, DALL-E – Generative KI (GenAI) prägt unsere Wahrnehmung von Künstlicher Intelligenz wie nie zuvor. Aber wie konnten Maschinen lernen, neue, originäre Inhalte wie Texte oder Bilder zu erschaffen? In dieser Folge tauchen wir ein in die faszinierende Geschichte hinter dem aktuellen Boom.Wir verfolgen die Linie von den ersten Visionen maschineller Intelligenz und dem Turing-Test, über die Geburtsstunde der KI auf der Dartmouth Conference, bis zu den frühen Ideen für künstliche neuronale Netze. Erfahren Sie, wie das Perzeptron eine erste Welle der Euphorie auslöste, bevor der erste "KI-Winter" folgte.Wir beleuchten das Wiederaufleben der neuronalen Netze durch den Backpropagation-Algorithmus und spezialisierte Architekturen wie CNNs, die durch die Leistung von GPUs ab 2012 zur Deep-Learning-Revolution führten.Der entscheidende Schritt zur Generierung kam mit Modellen wie VAEs und GANs, die Maschinen beibrachten, Daten nicht nur zu analysieren, sondern zu erschaffen. Der Game-Changer für Text und darüber hinaus war schließlich die Transformer-Architektur und der Aufmerksamkeitsmechanismus im Jahr 2017, die den Weg für heutige Large Language Models (LLMs) wie die GPT-Serie ebneten.Warum erleben wir diesen Durchbruch gerade jetzt? Es ist die Konvergenz mehrerer Faktoren: exponentielle Rechenleistung, riesige Datenmengen, algorithmische Fortschritte und eine drastisch verbesserte Zugänglichkeit und Nutzererfahrung.Begleiten Sie uns auf dieser Reise von der Theorie zum alltäglichen Werkzeug und erfahren Sie, was die "Menschlichkeit" der Interaktion und die Fähigkeit, Neues zu schaffen, so faszinierend macht.

...more
View all episodesView all episodes
Download on the App Store

Prompt und AntwortBy KI-Gilde