Kontext ist Gold
Alle, die schon einmal mit Large Language Models wie GPT-4 gearbeitet oder experimentiert haben, kennen es: Die generative KI produziert erstaunlich natürlichsprachliche Texte, doch oft wirken die Ergebnisse generisch und führen nicht zum gewünschten Ziel. In dieser Folge gehen Anja und Robert der Frage nach: Wie formuliert man Prompts, die zu wirklich hilfreichen Ergebnissen führen? Robert rät: "Talk to it like a human". Was bedeutet das für unsere Arbeitsweise? Wie verbessert der richtige Kontext die Ergebnisse generativer KI entscheidend? Wie trifft man den richtigen Grad zwischen aufwendigem Prompt-Engineering und schnellen "Aus-der-Hüfte-Prompts"?
Few-shot promptingChain-of-thought prompting ellicits reasoning in Large Language ModelsWorking with AI: Two paths to prompting – Don’t overcomplicate thingsEthan Mollick: Co-Intelligence – Living and Working with AIRAG (Retrieval Augmented Generation)Instruction Prompts nutzen, um mehr Kontext zur Nutzer:in zu geben.ChatGPT als Werkzeug für Software-Architektur mit Ralf D. MüllerClaude 3 Opus von Anthropic als GPT-4 AlternativeChatGPT Memory