Im Prinzip Vorbilder

65: Eliezer Yudkowsky - KI & Das Ende der Menschheit


Listen Later

Wir sind heute besonders aufgeregt, denn wir werden das Vorbild aller Vorbilder vorstellen: Eliezer Yudkowsky. Wer? Ja genau, der Typ, der so schlau ist, dass er dich zum Nachdenken bringt, noch bevor du deinen Kaffee ausgetrunken hast.

Bevor wir jedoch in die Hauptshow starten, gönnen wir uns selbst noch eine Tasse frisch gerösteten Kaffee und geben euch einen kurzen Einblick in AutoGPT. Ja, das klingt alles sehr nerdig, aber wir versprechen, dass wir unter 20 Minuten das ganze so verständlich wie möglich erklären werden.

Und dann geht es auch schon los mit unserem Hauptthema: Eliezer Yudkowsky und seinem Haupt-Forschungsthema: Generelle Künstliche Intelligenz und warum es das Ende der Menschheit bedeuten könnte. Etwas deprimierend aber umso mehr spannend. Irgendwie paradox, oder? Es ist krass, was passiert! Also schnappt euch einen Kaffee und hört rein!

Interessante Links:

  • AutoGPT auf Github

  • Twitter Feed über AutoGPT Anwendungsfälle

  • Astral Codex Ten: ACX - rationalist community

  • Interview zwischen Lex Fridman und Eliezer Yudowsky

  • Offizielle Website von Eliezer Yudkowsky

  • Machine Intelligence Research Institute: https://intelligence.org/

  • Less Wrong Blog: https://www.lesswrong.com/

  • Kapitel:

    0:00:08 - Frisch gerösteter Kaffee

    0:10:42 - AutoGPT Next Level AI

    0:28:10 - AutoGPT Anwendungsfälle

    0:37:37 - AGI is Summoning the Devil

    0:39:52 - Eliezer Yudkowsky

    0:43:12 - Was ist AGI?

    0:47:58 - Das Alignment Problem

    0:56:45 - Das Ende der Menschheit

    1:00:03 - Lesswrong.com

    1:02:27 - AGI Timeline

    1:06:32 - Nett sein zur göttlichen AI

    1:09:29 - ACX Community

    1:13:28 - Krass was passiert

    Kommentare via https://www.imprinzipvorbilder.de/kontakt
    ...more
    View all episodesView all episodes
    Download on the App Store

    Im Prinzip VorbilderBy Georg Röhl, Julian Schiemann