
Sign up to save your podcasts
Or
In der finalen Folge unserer Mini-Serie zu »Künstlicher Intelligenz (KI) und Statistik« wird es tiefgründig – im wahrsten Sinne des Wortes. Unser Podcast-Team – bestehend aus Esther Packullat, Sascha Feth und Jochen Fiedler – beschäftigt sich mit den großen Sprachmodellen wie GPT-4, Llama oder Gemini.
Wir werfen einen Blick hinter die Kulissen und diskutieren spannende Fragen wie:
• Was macht diese Modelle so leistungsfähig?
• Wie funktionieren große Sprachmodelle eigentlich?
• Was heißt Deep Learning – und was unterscheidet es von Shallow Learning?
• Wie arbeiten Neuronale Netze – und warum spielt ihre Topologie eine entscheidende Rolle?
• Inwiefern lassen sich die Fähigkeiten großer KI-Modelle wirklich vorhersagen?
• Warum ist Deep Learning mehr als nur angewandte Statistik?
• Was ist Emergenz – und warum überrascht uns KI manchmal selbst?
• Und schließlich die große Frage: Werden KI-Systeme eines Tages ein Bewusstsein entwickeln? Was würde das bedeuten?
Unsere beiden Statistik-Kollegen sind sich einig: Die Entwicklung geht in eine spannende Richtung – und wir stehen erst am Anfang.
Buchtipps aus der Folge:
Metzinger, Thomas (2014). Der Ego-Tunnel: Eine neue Philosophie des Selbst: Von der Hirnforschung zur Bewusstseinsethik. Piper Verlag.
Ramakrishnan, Venkatraman (2024). Warum wir sterben: die neue Wissenschaft des Alterns und die Suche nach dem ewigen Leben. Klett-Cotta.
Gestalte unseren Podcast mit!
Du hast ein Zahlenphänomen entdeckt, das wir besprechen sollen? Oder eine Statistik in den Medien gelesen, die wir in der »Streuspanne« einmal genauer unter die Lupe nehmen sollen? Dann melde Dich gerne über [email protected] bei uns!
In der finalen Folge unserer Mini-Serie zu »Künstlicher Intelligenz (KI) und Statistik« wird es tiefgründig – im wahrsten Sinne des Wortes. Unser Podcast-Team – bestehend aus Esther Packullat, Sascha Feth und Jochen Fiedler – beschäftigt sich mit den großen Sprachmodellen wie GPT-4, Llama oder Gemini.
Wir werfen einen Blick hinter die Kulissen und diskutieren spannende Fragen wie:
• Was macht diese Modelle so leistungsfähig?
• Wie funktionieren große Sprachmodelle eigentlich?
• Was heißt Deep Learning – und was unterscheidet es von Shallow Learning?
• Wie arbeiten Neuronale Netze – und warum spielt ihre Topologie eine entscheidende Rolle?
• Inwiefern lassen sich die Fähigkeiten großer KI-Modelle wirklich vorhersagen?
• Warum ist Deep Learning mehr als nur angewandte Statistik?
• Was ist Emergenz – und warum überrascht uns KI manchmal selbst?
• Und schließlich die große Frage: Werden KI-Systeme eines Tages ein Bewusstsein entwickeln? Was würde das bedeuten?
Unsere beiden Statistik-Kollegen sind sich einig: Die Entwicklung geht in eine spannende Richtung – und wir stehen erst am Anfang.
Buchtipps aus der Folge:
Metzinger, Thomas (2014). Der Ego-Tunnel: Eine neue Philosophie des Selbst: Von der Hirnforschung zur Bewusstseinsethik. Piper Verlag.
Ramakrishnan, Venkatraman (2024). Warum wir sterben: die neue Wissenschaft des Alterns und die Suche nach dem ewigen Leben. Klett-Cotta.
Gestalte unseren Podcast mit!
Du hast ein Zahlenphänomen entdeckt, das wir besprechen sollen? Oder eine Statistik in den Medien gelesen, die wir in der »Streuspanne« einmal genauer unter die Lupe nehmen sollen? Dann melde Dich gerne über [email protected] bei uns!
114 Listeners
18 Listeners
9 Listeners
45 Listeners
109 Listeners
16 Listeners
19 Listeners
20 Listeners
9 Listeners
16 Listeners
8 Listeners
13 Listeners
28 Listeners
1 Listeners
0 Listeners