
Sign up to save your podcasts
Or


这两天,李飞飞领导的斯坦福大学以人为本人工智能研究所(Stanford HAI)发布了《2025 年人工智能指数报告》,这份长达 456 多页的报告显示,在2024年,AI更大程度地融入到了日常生活中。
全球的科技政策制定者们不再只是在讨论人工智能,更积极地投资人工智能。巴黎行动峰会之后,安全不再是AI治理领域最核心的议题。而为了抢夺全球AI发展的先发优势,各国科技公司也开启了“Beta即推送”的竞赛。
可以说,半成品是我们的时代症候群:人们被迫接受尚未成熟的产品、系统和服务,与之共存,并承担代价,进而加强社会结构性的焦虑。
这是一场迟来的节目介绍,也是一个邀请。我们从一个牧区少年的故事讲起,穿越政策、商业与哲学的边界,进而分析AI的前沿风险概念为何被提出?为何“安全”成为科技主流政策讨论的遮蔽?又是谁制造了“未来风险”的想象。
本期主播Zhuoran:AI治理研究者,重点关注科技法和STS领域,拥有财经媒体和云计算&AI行业的交叉从业背景,并参加过多个AI Safety治理研究项目。
📘
内容目录00:17 一个问题的产生:谁在主导AI的叙事?这是认知之争还是权力之争?
01:07 拉图尔的警示:我们的二元思维陷阱
03:09 技术焦虑:登船还是被淹没?
04:26 "半成品社会"的来临:AI的新应用为何能在短时间内风靡全球,甚至存在不成熟的情况被广泛推广?
05:45 入场:技术乌托邦背后具体的人:14岁藏族少年的故事
09:28 一支打动我的科技广告:Behind the Mac
10:46 《幽灵工作》作者告诉我:什么是创新的基础?
12:44 技术性消失如何将技术塑造成奇迹,如何使人类劳动变得隐形
14:09 前沿AI风险的提出:AI实验室们的议程设置
17:05 红队报告的惊人发现:AI能力的失控边界
揭秘Anthropic等公司内部红队测试的震撼结果:最新AI模型已在某些领域超越人类专家能力,生物安全测试结果令人不安,暴露出技术发展的失控潜力。
18:37 全球AI治理联盟的崩塌
从英国布莱切利峰会到巴黎行动峰会,安全一词从标题中消失,美欧英同盟破裂。
20:00 模型竞赛,一个字:卷
21:29 "前沿AI风险"如何塑造政策真空?
23:15 云计算巨头:AI革命背后真正的权力持有者
24:25 北大人工智能研究院朱松纯:AI叙事存在认知偏差,最难解决的问题是人文学科关注的社会复杂系统。
26:24 存在风险叙事的真相:源自顶尖科学家的担忧
28:33 如果海德格尔活着,会如何批判硅谷?
31:25 AI创业者是当代“奥本海默”吗?科技精英的道德幻觉
34:15 智能概念的哲学革命:从人类中心到宇宙尺度
35:45 意识与智能的解构:AI的存在主义挑战
39:57 可解释性AI:我们不够重视的关键研究领域
40:34 Stop Sign停车标志实验:自动驾驶到底能和人类一样看懂路标吗?
42:56 破除单一叙事:重塑AI讨论的多元声音
44:13 重启对话:技术即人
📘
本期提到的关键概念👤
提到的人物📚
参考资料请注意,第4条参考文献指出,“前沿AI风险”概念最初由人类未来研究所(FHI)的研究人员提出,尽管未直接提及OpenAI、DeepMind等人工智能实验室的名称,但事实上,该论文在OpenAI的网站上明确表示是由OpenAI独立委托完成。
可信AI交通路标实验
📚
BGM:片头:Ivano Palma - Il viaggio
片尾:Lonely Man - Alex Hamlin
By 智幻时刻Fungimind这两天,李飞飞领导的斯坦福大学以人为本人工智能研究所(Stanford HAI)发布了《2025 年人工智能指数报告》,这份长达 456 多页的报告显示,在2024年,AI更大程度地融入到了日常生活中。
全球的科技政策制定者们不再只是在讨论人工智能,更积极地投资人工智能。巴黎行动峰会之后,安全不再是AI治理领域最核心的议题。而为了抢夺全球AI发展的先发优势,各国科技公司也开启了“Beta即推送”的竞赛。
可以说,半成品是我们的时代症候群:人们被迫接受尚未成熟的产品、系统和服务,与之共存,并承担代价,进而加强社会结构性的焦虑。
这是一场迟来的节目介绍,也是一个邀请。我们从一个牧区少年的故事讲起,穿越政策、商业与哲学的边界,进而分析AI的前沿风险概念为何被提出?为何“安全”成为科技主流政策讨论的遮蔽?又是谁制造了“未来风险”的想象。
本期主播Zhuoran:AI治理研究者,重点关注科技法和STS领域,拥有财经媒体和云计算&AI行业的交叉从业背景,并参加过多个AI Safety治理研究项目。
📘
内容目录00:17 一个问题的产生:谁在主导AI的叙事?这是认知之争还是权力之争?
01:07 拉图尔的警示:我们的二元思维陷阱
03:09 技术焦虑:登船还是被淹没?
04:26 "半成品社会"的来临:AI的新应用为何能在短时间内风靡全球,甚至存在不成熟的情况被广泛推广?
05:45 入场:技术乌托邦背后具体的人:14岁藏族少年的故事
09:28 一支打动我的科技广告:Behind the Mac
10:46 《幽灵工作》作者告诉我:什么是创新的基础?
12:44 技术性消失如何将技术塑造成奇迹,如何使人类劳动变得隐形
14:09 前沿AI风险的提出:AI实验室们的议程设置
17:05 红队报告的惊人发现:AI能力的失控边界
揭秘Anthropic等公司内部红队测试的震撼结果:最新AI模型已在某些领域超越人类专家能力,生物安全测试结果令人不安,暴露出技术发展的失控潜力。
18:37 全球AI治理联盟的崩塌
从英国布莱切利峰会到巴黎行动峰会,安全一词从标题中消失,美欧英同盟破裂。
20:00 模型竞赛,一个字:卷
21:29 "前沿AI风险"如何塑造政策真空?
23:15 云计算巨头:AI革命背后真正的权力持有者
24:25 北大人工智能研究院朱松纯:AI叙事存在认知偏差,最难解决的问题是人文学科关注的社会复杂系统。
26:24 存在风险叙事的真相:源自顶尖科学家的担忧
28:33 如果海德格尔活着,会如何批判硅谷?
31:25 AI创业者是当代“奥本海默”吗?科技精英的道德幻觉
34:15 智能概念的哲学革命:从人类中心到宇宙尺度
35:45 意识与智能的解构:AI的存在主义挑战
39:57 可解释性AI:我们不够重视的关键研究领域
40:34 Stop Sign停车标志实验:自动驾驶到底能和人类一样看懂路标吗?
42:56 破除单一叙事:重塑AI讨论的多元声音
44:13 重启对话:技术即人
📘
本期提到的关键概念👤
提到的人物📚
参考资料请注意,第4条参考文献指出,“前沿AI风险”概念最初由人类未来研究所(FHI)的研究人员提出,尽管未直接提及OpenAI、DeepMind等人工智能实验室的名称,但事实上,该论文在OpenAI的网站上明确表示是由OpenAI独立委托完成。
可信AI交通路标实验
📚
BGM:片头:Ivano Palma - Il viaggio
片尾:Lonely Man - Alex Hamlin