前瞻钱瞻

前瞻钱瞻-26. 硅幕下的未来:Harari《Nexus》智人之上:AI时代的信息网络如何重塑全球格局


Listen Later

前瞻钱瞻:这期我们要前瞻的的是Yuval Noah Harari 尤瓦尔·诺瓦·赫拉利的最新力作——《Nexus: A Brief History of Information Networks from the Stone Age to AI》《智者之上: 从石器时代到人工智能的信息网络简史》。

尤瓦尔·诺亚·赫拉利教授(Yuval Noah Harari)1976年生于以色列,2002年获得牛津大学博士学位,现为耶路撒冷希伯来大学的历史系教授,并担任剑桥大学存在风险研究中心的杰出研究员,当年的青年怪才,全球瞩目的新锐历史学家。

他以深入浅出的风格探索人类历史、未来科技及全球重大议题而闻名。他的代表作品包括畅销书《人类简史》《未来简史》《今日简史》《人类简史:图像小说版》以及《不可阻挡的我们》。这些书籍已被翻译成65种语言,总销量超过4500万册,奠定了他作为全球最具影响力的公共知识分子之一的地位。

  • 《人类简史》(Sapiens: A Brief History of Humankind),2011年出版,探讨了人类从原始社会到现代文明的发展路径。
  • 《未来简史》(Homo Deus: A Brief History of Tomorrow),2015年出版,聚焦人类在未来如何利用技术实现“不朽”“幸福”和“神性”。
  • 《今日简史》(21 Lessons for the 21st Century),2018年出版,分析了21世纪的关键议题,包括人工智能、气候变化和全球化的挑战。

2019年,在他书籍获得国际成功后,与丈夫兼最初的代理人伊茨克·亚哈夫(Itzik Yahav)共同创立了Sapienship,这是一个专注于教育和叙事领域的社会影响公司,旨在推动关于全球重大挑战的公众对话。

他的新书《Nexus: 从石器时代到人工智能的信息网络简史》于2024年9月出版,深入探讨了人类进入信息时代的历程以及人工智能带来的机遇和挑战。探讨了从石器时代到人工智能革命的漫长信息网络历史。Harari在书中解析了信息与真理、官僚主义与神话、智慧与权力之间复杂的关系,展示了信息网络如何从一开始便影响人类社会的组织、结构和权力分布。通过追溯从《圣经》编纂、中世纪女巫猎杀、纳粹宣传到现代民粹主义等历史事件,《Nexus》为理解当下人工智能革命的威胁和机遇提供了重要背景。

Harari的《Nexus》:一本引人深思的新作, 延续了Harari对人类和科技关系的深度探讨,聚焦于信息网络的演变,以及AI驱动的信息网络对社会和个体行为的深远影响。Harari在书中提出了信息不仅是知识的传递工具,它更是塑造社会秩序和权力结构的核心力量。他从神话、宗教到现代社交媒体和AI算法,探讨信息网络如何既能促进合作,又可能通过技术的集中化,构建出一个分裂全球的“硅幕”。第一部分:人类网络(Human Networks)
  1. 什么是信息?信息不仅是传递知识的工具,更是连接人类社会、建立群体认同的纽带。
  2. 故事:无限的连接神话和宗教等叙事为社会提供凝聚力,帮助人类建立集体身份和规范。
  3. 文件:纸老虎的咬合文书记录促进了官僚体系,但也带来权力集中和误用的风险。
  4. 错误:不可犯错的幻想信息系统的错误会长期存在,影响社会决策。
  5. 决策:民主与极权的简史信息在民主与极权制度中的不同作用,影响政治体制的形成。
第二部分:非有机网络(The Inorganic Network)
  1. 新成员:计算机如何不同于印刷机AI成为信息网络的独立成员,具备自主决策和学习的能力。
  2. 无休止的运作:网络总是在线AI驱动的网络持续监控,带来了隐私和伦理挑战。
  3. 易犯错:网络也常常出错AI系统的错误和偏见容易被放大,过度依赖带来风险。
第三部分:计算机政治(Computer Politics)
  1. 社交媒体和算法驱动的信息极化影响了民主对话的有效性。
  2. 极权主义:所有权力归于算法?AI技术可能强化极权政权的控制,压制异见。
  3. 硅幕:全球帝国还是全球分裂?

  4. 核心要点:
信息并不等同于真理:信息的主要作用在于连接人,而非呈现客观事实。故事和叙事的力量:虚构的叙事在集体认同和社会稳定中具有重要作用,即使它并不真实。信息的双刃剑:信息既能建立联系,也能通过误导和操控破坏社会稳定。AI驱动的非有机网络:AI不只是工具,它在信息网络中充当了独立代理,具备自我演进的能力。监控的道德和心理影响:AI驱动的网络在无休止的监控下,侵蚀了个体隐私和自由。AI的潜在偏见和误判风险:AI在决策过程中易受训练数据影响,可能强化既有偏见并放大错误。民主对话的削弱:算法驱动的“回音室”现象加剧了社会极化,阻碍民主对话。极权主义强化:在极权体制中,AI的监控和数据分析功能可能导致权力的极端集中。全球性的“硅幕”:未来可能因AI控制的不同应用形成技术“铁幕”,导致社会分裂。伦理和问责的必要性:建立AI发展的全球伦理框架至关重要,以避免其成为压制工具。AI在公共话语中的影响:AI不仅塑造信息传播,还操控舆论,影响公共决策。数据隐私的侵蚀:AI在多领域的数据使用带来了隐私问题,使个体信息暴露风险上升。AI的独立行为能力:AI的决策能力改变了社会对工具的传统定义,提升了机器自主性。信息集权化的风险:AI可能使信息和权力高度集中,形成对少数人的依赖。算法的不可见影响:算法常常以隐形方式影响公众的日常生活和决策,使影响不易察觉。内容生成的原创性问题:AI生成的内容模糊了创意的边界,带来了原创性和版权问题。AI驱动的个性化:AI在广告、教育和医疗等领域的应用,促进了个性化体验,但隐私问题严重。技术失控的潜在威胁:如果缺乏有效监管,AI可能带来难以逆转的社会和经济影响。AI在工作中的替代性:AI的自动化影响了劳动市场,增加了失业风险,改变了就业结构。持续学习与重新培训的必要性:在AI时代,品牌和个人都需要不断更新知识和技能,以适应变化。
对企业品牌的影响与应对策略
  1. 透明化数据使用:品牌需要制定清晰的数据政策,向用户透明展示数据的收集和使用方式。
  2. 引领AI伦理讨论:企业应在AI应用中加入伦理准则,确保公平与公正。
  3. 保持品牌独特性:即使AI生成内容高效,品牌应确保其内容的原创性和真实性。
  4. 预防算法偏见:定期审查AI系统,确保其在广告投放、招聘等方面不会带来社会偏见。
  5. 跨行业合作:在数据和技术上与同行企业合作,降低数据孤岛的风险。
  6. 优化个性化体验:在客户体验中使用AI,但要确保与隐私保护的平衡。
  7. 加强数据安全:不断提升数据隐私保护措施,减少信息泄露风险。
  8. 制定应急预案:确保在AI系统出现故障时能快速响应并恢复。
  9. 提升员工技能:企业需为员工提供AI和数据技能培训,帮助团队适应新的工作环境。
  10. 推动责任科技:通过建立责任科技政策,增强品牌的社会责任感。
对个人的影响与应对策略
  1. 提升数字素养:了解和掌握AI和信息网络的基本知识,以便在数字化社会中更好地保护自身权益。
  2. 维护数据隐私:学习如何管理和控制自己的数据使用权。
  3. 理性使用AI工具:使用AI提升效率,但保持独立的批判性思维。
  4. 批判性消费信息:培养辨别信息真伪的能力,避免被算法操控。
  5. 终身学习:在快速发展的科技时代保持知识更新和技能提升。
  6. 关注心理健康:在“永远在线”的环境中注意心理和身体健康。
  7. 定期更新隐私设置:确保个人隐私不被泄露,定期检查隐私设置。
  8. 参与AI伦理讨论:关注AI的社会和伦理影响,增强公民责任感。
  9. 提高适应力和应变能力:面对快速变化的科技环境,保持弹性和适应能力。
  10. 保持线下社交:避免完全依赖线上互动,注重与人真实的面对面交流。

Yuval Noah Harari在《Nexus》中揭示了信息网络对人类的深远影响,特别是在AI和数据高度集中的今天。Harari呼吁全球社会应在快速发展的技术浪潮中保持伦理责任和人性关怀。无论是品牌还是个人,都需要在“硅幕”时代保持警觉,以理性和负责任的态度应对信息时代的挑战。

...more
View all episodesView all episodes
Download on the App Store

前瞻钱瞻By 前瞻钱瞻