北京职女

32.系统性讲解如何写好AI提示词 | Prompt Engineering


Listen Later

我们和大语言模型的协作模式还有优化的空间吗?AI从基础模型进化到高性能模型,又会如何影响提示词工程发展?AI除了可以帮我们解决工作/生活中的难题和dirty work,还能搞多模态的创作你知道吗?

很多人都知道AI提示词很重要,但大多数人不是写不好,而是根本不知道还能这样写。因此我想尝试系统性地讲一讲“提示词工程”这件事——为什么它不是写几句话那么简单,为什么它值得被当成一个“工程问题”来对待,又为什么你总觉得AI不好用,其实只是你和它没建立起合适的协作方式。我会从一个实际AI使用者/创作者和AI业内人的角度,讲写提示词的结构方法、使用策略、还分享了少有人讨论的写指令的风格范式,以及一点通俗易懂的底层原理。如果你总觉得“AI没想象中那么强”,那这期可能就是为你做的~

此篇教程不需要技术背景可以放心食用,听完就能上手。我还准备了10个实用提示词模板,放在评论区自取。如果你觉得这篇对你有帮助,欢迎评论转发分享给其他朋友。如果你也有很多用AI的感想,欢迎评论区交流~

-

00:32 我为什么想做这个教程?

02:14 我计划怎么给大家“完善地”讲解提示词工程?

04:54 我现在最常用的AI工具,以及我都用它们干什么?

07:15 我从小到大最擅长的一件事:提需求

——会提需求,你的人生就会变成爽文

Part0. 从“提问”开始讲

08:33 一切皆可问,你和AI之间的“合作关系”,更像是建立你自己语言习惯的过程

10:41 很多人在意图澄清方面都有巨大欠缺

——Prompt工程的第一个关键变量,不是模型有多强,是你对所处任务的理解有多深

Part1.  Prompting 框架

13:05 Google官方课程「Prompting Essentials」

——如何将一个模糊的需求拆解成多个具体的、可执行的步骤

  • 1.1  Task(任务)
  • 1.2  Context(上下文)
  • 1.3  References(参考)
  • 1.4  Evaluate(评估)
  • 1.5  Iterate(迭代)
Part2.  Prompting 范式

21:14 AI从基础模型进化到高性能模型,又会如何影响提示词工程发展?

2.1  Lazy Prompting

22:51 吴恩达为什么说有时用懒提示反而更高效?

26:10 适用于哪种模型?写懒提示居然还有个意想不到的“好处”?

26:57 你可能会想知道的和「大模型记忆力」有关的3个底层机制

——AI到底记不记得住我说过的话?能记住多少?

29:08 什么是token?

30:28 什么是Context Window(上下文窗口)?

32:10 用deepseek推理模型写歌的一些离谱尝试

34:09 什么是session?

2.2  Structured Prompting

35:42 工业化写法,稳定、高可控、利于复用

  • 策略1. 少样本提示 (Few-shot)
  • 策略2. 给明背景信息(Additional Context)
  • 策略3. 指定完成任务的步骤(Decomposition)
  • 策略4. 思维链提示法(CoT)
  • 策略5. 使用标签 (XML Label)

2.3  Vibe Prompting

42:34 本人自创hhh,半结构半感性,创意感强

44:05 工作场合需要传达语气,创造氛围的场景也非常有用

45:01 当我用氛围提示法让GPT-4o吹我这篇播客

46:02 Sam Altman推崇的提示词工程师是噱头吗?

47:15 AI能力的边界在哪里?

47:28 关于提示词工程后面还可以讲什么?

50:51 片尾曲:我用SunoV4.5 创作的R&B

-

*BGM(all music made by me via ai):

Sweet Sunday - Fiona Huang (片尾曲)

Dance Until Dawn - Fiona Huang (片头曲)

-

*大纲以外的补充和延申

我最常用的AI:

ChatGPT-4o:全能,多模态

Gemini:超长上下文处理

Deepseek-R1:最佳使用方式是用腾讯元宝切成DS-R1+联网模式

Notebooklm:读paper读长文档

Recraft:有我最爱的胶片风格

Whisk:图片质感佳

Veo2:V3要花钱

Suno:最好的AI音乐模型

-

红衫资本分享的AI's Killer Apps:

AI's Trillion-Dollar Opportunity: Sequoia AI Ascent 2025 Keynote (from Youtube)

-

语言模型的分词(tokenization)机制举例:ChatGPT采用了一种叫做 Byte Pair Encoding (BPE) 的算法。这个算法的基本思路是:把一个字符串拆成尽可能常见的子词组合,以便最大化压缩 token 数量。但具体分成几个 token,还要看模型的词表中有哪些“片段”被定义为常见组合。想了解的可以在这个工具里测试:OpenAI tokenizer tool。

分词示意图:

-

关于memory的补充:

一文看懂LLM记忆力机制

-

Google Prompting Essentials (from Coursera / Google Career Skills / Youtube)

The Benefits of Lazy Prompting (知乎上有中文版:吴恩达来信:Lazy prompting的好处)

-

我用Suno三代模型写的歌,你能听出各模型的特点吗:)

V3.5:Pages of Peace - Fiona Huang

V4.0:Silent Night at Home, with Phoebe - Fiona Huang

V4.5:Sweet Sunday - Fiona Huang

-

极简歌词MV尝试:Whisk+即梦AI+Suno

Sweet Sunday MV

-

*过往精彩:

29.当代致富经:纳瓦尔宝典和纳瓦尔最新3h播客访谈都讲了什么

21.AI天选场景诞生-赛博算命,deepseek负责逻辑人类负责相信

22.偷火种不如造核弹,AI芯片是怎么炼成的?解码英伟达之道

23.经济下行期如何做预期管理与职业布局?裁员风暴下的实用生存指南

-

𝕭𝖊𝖎𝖏𝖎𝖓𝖌 𝕮𝖆𝖗𝖊𝖊𝖗 𝖂𝖔𝖒𝖆𝖓

北京职女

𝑻𝒉𝒆 𝒐𝒏𝒍𝒚 𝒘𝒂𝒚 𝒕𝒐 𝒅𝒐 𝒈𝒓𝒆𝒂𝒕 𝒘𝒐𝒓𝒌 𝒊𝒔 𝒕𝒐 𝒍𝒐v𝒆 𝒘𝒉𝒂𝒕 𝒚𝒐𝒖 𝒅𝒐.

...more
View all episodesView all episodes
Download on the App Store

北京职女By 田子鹅