Quelle: https://podcast.catch-42.com/catch42-002/
Catch-42
In der zweiten Folge unseres Catch-42 Podcasts dreht sich alles um technologische Singularität und künstliche Intelligenz: Was ist ein Large Language Model (LLM) und wie funktioniert es? Ab wann spricht man von einer starke KI und welche Chancen und Risiken gehen damit einher? Was verbirgt sich hinter dem so genannten Alignment Problem? Wie definieren wir überhaupt Intelligenz und Bewusstsein? Und werden Maschinen jemals wirklich intelligent sein und Bewusstsein erlangen? All das besprechen Soenke und Felix in der heutigen Folge des Catch-42 Podcasts.
Felix Holzapfel
Jahrgang 1978, wurde von Thinkers360 mehrfach als Top10 Global Thought Leader für Digitale Transformation ausgezeichnet. Nach dem Verkauf seiner Digitalagentur, berät er heute etablierte Unternehmen und beteiligt sich an Startups. Er hat bereits mehrere Fachbücher sowie einen Roman über Trends, Technologie und den Wandel unserer Medienlandschaft veröffentlicht. Mehr unter www.felixholzapfel.com.
Soenke Scharnhorst
Soenke wurde 1979 in Stuttgart geboren und studierte Wirtschaftsinformatik an der Dualen Hochschule Mannheim. Seit 2000 arbeitet er in verschiedenen Positionen für Europas größtes Softwareunternehmen. Als Autor behandelt er die Erweiterung der menschlichen Möglichkeiten durch den Einsatz von Technologie, die Evolution der Maschinenintelligenz und ihre Konsequenzen für die Zukunft. Mehr unter soenke-scharnhorst.de.
Shownotes
ChatGPT Explained:https://www.youtube.com/watch?v=-4Oso9-9KTQ&ab_channel=KyleHillAgentisches Chaos – Ein KI-Katastrophen-Szenario: https://www.youtube.com/watch?v=dfHM1tyX7rc&ab_channel=KarlOlsbergTED Talks zum Thema Strong AI
https://www.ted.com/talks/nick_bostrom_what_happens_when_our_computers_get_smarter_than_we_are
https://www.ted.com/talks/max_tegmark_how_to_get_empowered_not_overpowered_by_ai
https://www.ted.com/talks/sam_harris_can_we_build_ai_without_losing_control_over_itIt’s not AI consciousness that worries me, but their intelligence: https://www.youtube.com/watch?v=T3EHANFeyns&ab_channel=SabineHossenfelderYour brain hallucinates your conscious reality
https://www.ted.com/talks/anil_seth_your_brain_hallucinates_your_conscious_realityPapier Clip Maximiser:https://en.wikipedia.org/wiki/Instrumental_convergence#Paperclip_maximizerTechnischer Posthumanismus und Vergleich zum Transhumanismus: https://de.wikipedia.org/wiki/PosthumanismusHomoe Deus von Yuval Noah Harari: https://de.wikipedia.org/wiki/Homo_Deus_%E2%80%93_Eine_Geschichte_von_MorgenThe Alignment Problem:https://en.wikipedia.org/wiki/AI_alignmentRobotergesetze:https://de.wikipedia.org/wiki/RobotergesetzeStuart Russels:https://www.ki-risiken.de/2020/01/13/stuart-russells-3-prinzipien-f%C3%BCr-gutartige-ki-und-meine-zweifel-daran/Karl Olsberg:https://www.ki-risiken.de/einf%C3%BChrung/Explainable AI:https://kaum-intelligent.de/Folgen mit Karl Olsberg und Kaum intelligent auf ReWrite-Podcast:https://rewrite-podcast.de/?s=K%C3%BCnstliche