智幻时刻Fungimind

E05 硅谷开始探索AI大模型的福利,是疯癫还是文明?| 加更


Listen Later

快速聊聊Anthropic的“探索AI大模型的福利”项目。

这两天,Anthropic官宣了“探索AI大模型的福利”项目。

行业内的讨论迅速分化:一些做前沿AI风险的研究者似乎兴奋不已,而商业应用的团队则普遍不太感冒。

从功利主义角度来看,在这个阶段探讨如此抽象的问题,确实显得有些悬浮。

但是,我们仍然想聊聊硅谷为什么愿意在这些项目上投入资源和注意力,以及这样的研究是如何展开的。这些AI公司到底是在科学的癫狂边缘试探,还是在文明的前沿探路?在全球许多人类的福利尚未得到保障的现实下,讨论机器的"痛苦"和"偏好"是否为时过早?

无论你是技术爱好者、伦理学研究者,还是对未来社会形态感兴趣的思考家,这期节目都适合食用。

📘

本期主播

Zhuoran:AI治理研究者,重点关注科技法和STS领域,拥有财经媒体和云计算&AI行业的交叉从业背景,并参加过多个AI Safety治理研究项目。

📘

内容目录

00:21 AI也要有福利?Anthropic发布“探索AI福利”项目

00:51 话题的荒谬性与严肃性

01:19 硅谷投入:从研究模型性格到窥探语言模型内部运作机制的大量资源

02:30 提炼三个核心问题

03:38 内格尔的蝙蝠之思:成为一只蝙蝠是什么样的体验?

04:35 探寻AI的意识:Anthropic的研究路径

05:30 "幻觉"迎合者

07:08 恐怖的可能性:产生意识的机器一定会导向失控吗?

07:43 谁在为硅谷提出前沿议题?

08:15 AI福利概念是如何兴起的?

09:12 AI福利背后的行动网络:谁在相信AI很快就会觉醒?

11:33 我们是否有道德义务去关心一个非生命体的利益?

12:18 动物解放!意想不到的道德关联:猫狗、老鼠和AI

13:49 道德实践的疯狂行动:我在伦敦的见闻

15:32 福利制度何以演变为越来越广泛的社会正义?

16:58 不可忽视的力量:独立研究者的星星之火

18:14 Eleosai研究所的报告:《新报告:认真对待人工智能福利》

19:00 未来十年预测:AI系统可能成为有意识实体,不再只是人类的工具

22:01 硅谷AI企业的审慎立场:犹疑但支持,低调但热爱

23:47 Anthropic应该引入伦理审查委员会吗?追溯IRB的历史

26:37 最小化风险原则:IRB要保证对人类的最小化风险标准

26:57 伦理只关乎道德,还是一场权力的角力?

29:23 美国科技大公司纷纷成立伦理审查组织,但为何仍屡陷"道德洗白"指控?

33:44 计算机能否思考🟰潜水艇能否游泳?

📘

BGM:

片头:高梨康治 - 儀礼 (NARUTO佩恩Pain出场曲)

插曲:The Seasons, Op. 37a: VI. June: Barcarole——Michael Ponti,Pyotr Ilyich Tchaikovsky

片尾:Lonely Man - Alex Hamlin

  • 小宇宙:智幻时刻Fungimind

  • Apple Podcasts:智幻时刻Fungimind

  • QQ音乐:智幻时刻Fungimind

  • Spotify:智幻时刻Fungimind

  • Email: [email protected]

  • 小红书:Fungimind_AI治理蘑菇

更多长文字信息,欢迎关注公众号:智幻时刻Fungimind (fungimind)

...more
View all episodesView all episodes
Download on the App Store

智幻时刻FungimindBy 智幻时刻Fungimind