Wie man in ChatGPT, Gemini und Co hineinschreibt, so schallt es heraus. Bestimmte Methoden und Tricks verbessern die Ausgabe solcher KI-Sprachmodelle (LLMs) deutlich. Hilft es, eine KI emotional unter Druck zu setzen? Braucht es künftig noch Prompt-Engineers? Moritz Metz und Ralf Krauter probieren verschiedenste Prompts.
Kapitelmarken(00:00) Ralf hat eine Überraschung
(01:23) Wie nutze ich generative KI effizient?
(04:45) Ziel setzen, Rolle vorgeben, Kontext geben
(07:32) Vorteile und Vorurteile beim Prompting mit Rollen
(09:30) Prompting mit Beispielen, Referenzen und Formatvorgaben
(12:05) Nilpferde, Token, Kontextfenster und der Recency Bias
(15:13) Kann KI die eigenen Prompts optimieren?
(18:18) Hilft Motivieren, Bedrohen und Bestrafen?
(22:45) Sollten wir zu Chatbots sein sein?
(24:19) Promt-Engineering könnte überflüssig werden
Weiterführende Links- Promptguide von OpenAI
- Brex's Prompt Engineering Guide
- Awesome ChatGPT Prompts
- System-Prompt von ChatGPT4
- Studie zu Rollen und Gender-Bias in LLMs
- Studie zu Effizienz von Promptmethoden
- Analyse von Max Woolf zu Belohnung und Bestrafung von LLMs
- Vortrag von Eva Wolfangel zu Social Engineering von LLMs
Mehr zum Thema KI in der Dlf Audiothek- Wie weit noch bis zur Superintelligenz?
- Lernen, wie man effizient mit KI redet
- Beginnt das Zeitalter der KI-Kommunikation?
Wenn Euch diese Episode gefallen hat, abonniert uns und empfehlt uns gerne weiter. Für Kritik, Fragen und Anregungen aller Art schickt uns eine E-Mail an
[email protected] oder eine Sprachnachricht per Signal oder Whatsapp an 0152-59529753.
Noch mehr spannende Podcasts gibt’s in der Dlf Audiothek App. Zu finden in den App-Stores von Apple und Google.
Folgt dem Deutschlandfunk auch auf Instagram oder Facebook.