
Sign up to save your podcasts
Or


Agili 的 Hacker Podcast:今日精选涵盖 LinkedIn 身份验证背后的隐私代价、Dark Sky 团队回归推出的新天气应用、万维网原始浏览器的复刻,以及 AI 智能体协作、定理证明器在 AI 安全中的应用等技术话题。
为获得 LinkedIn 的蓝色"已验证"徽章,用户需扫描护照并拍摄自拍,全程仅需三分钟。数据并非交给 LinkedIn,而是流向旧金山身份验证公司 Persona。
Persona 收集的信息远超预期:护照正反面全量数据、生物识别特征(从照片提取的面部几何数据)、NFC 芯片数据、国民身份证号、IP 地址和设备指纹。更隐蔽的是行为生物识别——系统会记录用户输入时是否犹豫、是否使用复制粘贴。这些信息还会与政府数据库、信用机构和移动运营商交叉比对。
共有 17 家子处理商会接触这些数据,包括 OpenAI、Anthropic、AWS、Google Cloud 和 Snowflake,全部位于北美。即便数据存储在德国,美国 CLOUD 法案仍允许美国执法部门通过秘密传票获取这些信息。
Persona 的服务条款将赔偿责任上限设为 50 美元,并包含强制性约束仲裁条款。根据其隐私政策,护照和自拍图像会被用于训练 AI 模型,法律依据是"正当利益"而非用户同意。
社区建议:如需验证但不想出让生物识别信息,LinkedIn 有时提供宣誓书选项;已验证用户可向 Persona 发送数据删除请求。
Dark Sky 创始团队离开苹果后推出 Acme Weather,主打对预报不确定性的可视化处理。应用不只给出单一预测,而是展示一系列备选预测线——线条紧密说明预报可靠,线条发散则提示天气存在变数。
数据来源包括数值天气预报模型、卫星数据和地面观测站。社区中有专业用户指出,处理 GRIB2 格式气象数据并转换为地图切片需要庞大算力。
应用包含社区报告功能、多种地图层(雷达、闪电、积雪量)以及彩虹预警和落日余晖提醒等特色通知。
年费 25 美元的订阅制引发订阅疲劳讨论。社区认为在苹果天气已足够好用、且存在 DWD(德国)和 Yr.no(挪威)等免费数据源的情况下,这一定价缺乏吸引力。目前仅支持美国和加拿大,无 Android 版本,欧洲用户对此颇有怨言。
团队承诺不存储位置历史、不使用第三方追踪器,但鉴于 Dark Sky 曾被苹果收购,部分用户担心历史重演。
1990 年 12 月,Tim Berners-Lee 在 NeXT 计算机上开发了 WorldWideWeb 应用。2019 年,CERN 团队用 JavaScript 在现代浏览器中复刻了这一原始浏览器,让用户体验万维网的起点。
当时的浏览器体验与今天截然不同:需通过菜单输入 URL,必须双击链接才能跳转。社区成员回忆,1992 年左右的万维网看起来和 Gopher 或 WAIS 非常相似。
原始浏览器最显著的特征是它同时也是编辑器。早期 Web 是"可读写"的,用户可直接点击页面文字进行编辑,并通过 HTTP PUT 方法保存修改。这种特性在商业化进程中逐渐消失。
复刻版忠实还原了 NeXT 系统的 UI 细节,如左侧滚动条和可撕下固定的菜单。有开发者认为更硬核的做法是通过 WebAssembly 模拟原始的 68040 处理器和 NeXTStep 系统。
早期 HTML 不支持内联图像,图片在独立窗口中打开。直到 Mosaic 的开发者私自添加了 标签,才开启图文混排的互联网时代。现代浏览器中复刻历史工具面临 CORS 和 CSP 等安全机制的限制,这反映了互联网从早期"野蛮生长"向现代安全体系的演变。
Karpathy 用"Claw"(螯/爪)描述一种新兴的 AI 智能体系统架构。如果说 LLM Agent 是 LLM 之上的封装,Claw 则是 Agent 之上的新层级,将编排、调度、上下文、工具调用和持久性提升到新高度。
这类系统通常运行在本地硬件上,通过消息协议通信,既能响应直接指令也能进行长期任务调度。Karpathy 提到的 NanoClaw 项目核心引擎仅约 4000 行代码,便于人类审计和 AI 理解,默认在容器中运行。
反对者认为这是 AI 圈频繁造词以维持热度的表现,"Assistant"一词已足够涵盖这些功能。支持者(如 Simon Willison)辩护称,准确命名对技术讨论至关重要——"Agent"定义过于宽泛,而"Claw"关联具体的开源实现和运行模式,能提供更清晰的心理模型。
生态系统中已出现 nanobot、zeroclaw、picoclaw 等项目。这种强调本地运行、具备编排能力的"螯层"被视为 AI 技术栈中极具潜力的新层级。
现有智能体框架如 LangGraph、CrewAI 或 OpenAI Swarm 都要求开发者预先硬编码协作结构。Cord 提出不同思路:让智能体根据目标在运行时动态构建任务树,自主决定何时分解问题、何时并行处理、何时向人类求助。
核心创新在于区分两种上下文流转原语:Spawn(衍生)创建"白板"状态的子智能体,仅提供任务说明;Fork(分叉)创建继承所有同级节点结果的子智能体,适用于需要建立在已有研究基础上的分析任务。
底层实现约 500 行 Python 代码,利用 MCP 工具和共享 SQLite 数据库管理任务状态。智能体可用 read_tree 查看全局树状结构,用 ask 向人类提问并阻塞后续任务,用 complete 提交结果。
社区认为在模型推理能力增强的今天,硬编码工作流确实显得过时。有观点建议将"上下文查询"作为一等公民,允许父智能体通过自然语言指令动态压缩和过滤传递给子智能体的上下文。行为测试显示,Claude 3.5 Sonnet 仅凭清晰的工具描述就能直觉性地学会使用这些原语进行项目分解和错误自愈。
OAuth 解决的问题是:如何在不泄露密码的前提下,授权第三方应用代表用户行使权力。2006 年 Twitter 开发团队为支持桌面客户端而设计了这一机制。
核心逻辑分两部分:在获得用户同意后,向受托方发送一个多次使用的令牌;规定受托方如何利用该令牌代表用户发起请求。OAuth 关注授权("你能做什么"),而建立在其上的 OIDC 关注认证("你是谁")。
OAuth 1.0 作者 Eran Hammer 曾因不满 2.0 版本过于向企业级需求妥协而辞职。他批评 2.0 更像框架而非单一标准,导致互操作性下降——开发者必须针对每个服务商编写特定模块。
尽管如此,OAuth 仍优于基于 XML 的 SAML。OAuth 允许开发者根据需求选择不同授权模式:Authorization Code Grant(三方重定向流程)、Client Credentials Grant(机器对机器通信)、PKCE(防止移动端授权码被拦截)。
通过 JWKs,参与者可自动轮换密钥而无需手动交换证书。社区推荐使用 oauth2-proxy 等工具在反向代理层添加 OAuth 验证,为自建应用提供第三方登录功能。
大语言模型能力惊人却饱受幻觉困扰。Lean 4 作为开源编程语言和交互式定理证明器,通过形式化验证为 AI 系统注入确定性——每段代码或定理都必须通过严格类型检查,产生二元判定:完全正确或失败。
研究框架 Safe 利用 Lean 4 验证 LLM 推理链中的每一步,无法提供形式化证明的主张会被识别为幻觉。Harmonic AI 的 Aristotle 系统在 2025 年 IMO 问题上达到金牌水平,只有当 Lean 4 检查器验证了证明过程才会输出答案。
Lean 4 有望消除软件安全中的逻辑错误,但编写验证代码极度耗费人力。在 VeriBench 基准测试中,原生模型成功率仅 12%,通过自我修正的 AI 代理可提升至近 60%。
社区对"证明即安全"持谨慎态度。核心风险是规格说明错误:即使 Lean 证明代码符合规范,但如果规范本身是错的,"被证明正确"的代码依然会导致灾难。Lean 4 基于闭合世界假说和单调逻辑,而现实世界充满矛盾和缺失信息。部分专家建议 Event-B 或精化类型可能比纯数学路径更具灵活性。
GitHub 项目 ai-ublock-blacklist 为 uBlock Origin 提供规则,屏蔽由生成式 AI 大量制造、缺乏实用信息且充斥广告的网站。作者认为,用户搜索网页是为了寻找人类的经验和创造力,AI 内容不仅平庸,甚至可能在技术建议中产生幻觉误导用户。
作者总结的识别模式包括:冗余华丽的开头(如"在当今快速发展的数字化景观中……")、特定标题模板("终极指南""分步教程")、缺乏外部引用、异常的发布频率(同一作者短时间内发布数万篇文章)、残留的 AI 指令痕迹。
批评集中在误伤风险和维护者态度上。项目早期对被误封站点的申诉采取傲慢态度,缺乏审核和过期机制的黑名单可能变成"永久的名誉黑洞"。
社区对"AI 辅助写作"与"AI 内容农场"的界限表示担忧——母语非英语的用户使用 AI 润色文档属于提高效率,不应被归类为垃圾。部分技术专家认为这是注定失败的军备竞赛,建立白名单可能比封锁无限生成的垃圾信息更有效。
TigerBeetle 数据库团队总结了一套变量命名约定:count 始终指代"项的数量",index 始终指代"特定的某一项"。这建立了明确的不变式:index < count。
在底层系统开发中,程序员需要在强类型表示(如 []T)与原始字节(如 []u8)之间切换。为避免混淆,约定引入 size(字节数量,size = @sizeOf(T) * count)和 offset(字节级偏移量)。
禁用"length"是该约定的核心,因为它含义模糊。Rust 的 str::len 返回字节大小,Python 的 len(str) 返回 Unicode 码位数量。在序列化代码中,这种模糊性经常导致开发者混淆"元素数量"与"字节总数"。
团队还推崇"大端序命名法",如使用 source_index 而非 index_source,让相关变量在词法排序时靠在一起。成对变量名保持相同长度(如 source 和 target)可使代码垂直对齐,任何维度不匹配都会产生视觉违和感。
2026 年 1 月,OpenAI 宣布 ChatGPT 开始展示广告,并收购了 Jony Ive 的硬件初创公司 io。真正的智能化需要 AI"始终在线",持续感知音频和视觉信息以构建用户生活模型。
社区存在分歧:支持者认为这是帮助神经多样性人群管理生活事务的"大脑假体";反对者认为全天候监听会产生强烈疏离感。
面对隐私质疑,大厂通常承诺"加密传输"或"匿名化处理"。但 Google 曾扫描 Gmail 内容长达 13 年,Amazon 也曾计划将 Alexa 对话提供给广告商。当数据存储在云端,用户必须信任公司的员工、供应商和未来政策走向。只要信息存在,就可能被法院传唤或政府搜查。
边缘推理(在设备本地而非云端进行 AI 运算)是目前唯一出路。得益于模型压缩和量化技术,本地硬件已能运行实时语音转文本和语义记忆系统。
但社区仍有保留:家中访客是否同意被录音?消费级硬件性能远落后于云端大模型;为提高准确性,系统往往需要在内存中保留几分钟原始数据。
主流 AI 助手的商业逻辑都与广告收入挂钩,甚至 Apple 也已成为年创收数十亿美元的广告公司。AI 给出的"建议"可能并非最优解,而是付费推广的结果。行业需要一种基于硬件销售而非数据变现的商业模式。
相关链接:
By Agili 的 Hacker PodcastAgili 的 Hacker Podcast:今日精选涵盖 LinkedIn 身份验证背后的隐私代价、Dark Sky 团队回归推出的新天气应用、万维网原始浏览器的复刻,以及 AI 智能体协作、定理证明器在 AI 安全中的应用等技术话题。
为获得 LinkedIn 的蓝色"已验证"徽章,用户需扫描护照并拍摄自拍,全程仅需三分钟。数据并非交给 LinkedIn,而是流向旧金山身份验证公司 Persona。
Persona 收集的信息远超预期:护照正反面全量数据、生物识别特征(从照片提取的面部几何数据)、NFC 芯片数据、国民身份证号、IP 地址和设备指纹。更隐蔽的是行为生物识别——系统会记录用户输入时是否犹豫、是否使用复制粘贴。这些信息还会与政府数据库、信用机构和移动运营商交叉比对。
共有 17 家子处理商会接触这些数据,包括 OpenAI、Anthropic、AWS、Google Cloud 和 Snowflake,全部位于北美。即便数据存储在德国,美国 CLOUD 法案仍允许美国执法部门通过秘密传票获取这些信息。
Persona 的服务条款将赔偿责任上限设为 50 美元,并包含强制性约束仲裁条款。根据其隐私政策,护照和自拍图像会被用于训练 AI 模型,法律依据是"正当利益"而非用户同意。
社区建议:如需验证但不想出让生物识别信息,LinkedIn 有时提供宣誓书选项;已验证用户可向 Persona 发送数据删除请求。
Dark Sky 创始团队离开苹果后推出 Acme Weather,主打对预报不确定性的可视化处理。应用不只给出单一预测,而是展示一系列备选预测线——线条紧密说明预报可靠,线条发散则提示天气存在变数。
数据来源包括数值天气预报模型、卫星数据和地面观测站。社区中有专业用户指出,处理 GRIB2 格式气象数据并转换为地图切片需要庞大算力。
应用包含社区报告功能、多种地图层(雷达、闪电、积雪量)以及彩虹预警和落日余晖提醒等特色通知。
年费 25 美元的订阅制引发订阅疲劳讨论。社区认为在苹果天气已足够好用、且存在 DWD(德国)和 Yr.no(挪威)等免费数据源的情况下,这一定价缺乏吸引力。目前仅支持美国和加拿大,无 Android 版本,欧洲用户对此颇有怨言。
团队承诺不存储位置历史、不使用第三方追踪器,但鉴于 Dark Sky 曾被苹果收购,部分用户担心历史重演。
1990 年 12 月,Tim Berners-Lee 在 NeXT 计算机上开发了 WorldWideWeb 应用。2019 年,CERN 团队用 JavaScript 在现代浏览器中复刻了这一原始浏览器,让用户体验万维网的起点。
当时的浏览器体验与今天截然不同:需通过菜单输入 URL,必须双击链接才能跳转。社区成员回忆,1992 年左右的万维网看起来和 Gopher 或 WAIS 非常相似。
原始浏览器最显著的特征是它同时也是编辑器。早期 Web 是"可读写"的,用户可直接点击页面文字进行编辑,并通过 HTTP PUT 方法保存修改。这种特性在商业化进程中逐渐消失。
复刻版忠实还原了 NeXT 系统的 UI 细节,如左侧滚动条和可撕下固定的菜单。有开发者认为更硬核的做法是通过 WebAssembly 模拟原始的 68040 处理器和 NeXTStep 系统。
早期 HTML 不支持内联图像,图片在独立窗口中打开。直到 Mosaic 的开发者私自添加了 标签,才开启图文混排的互联网时代。现代浏览器中复刻历史工具面临 CORS 和 CSP 等安全机制的限制,这反映了互联网从早期"野蛮生长"向现代安全体系的演变。
Karpathy 用"Claw"(螯/爪)描述一种新兴的 AI 智能体系统架构。如果说 LLM Agent 是 LLM 之上的封装,Claw 则是 Agent 之上的新层级,将编排、调度、上下文、工具调用和持久性提升到新高度。
这类系统通常运行在本地硬件上,通过消息协议通信,既能响应直接指令也能进行长期任务调度。Karpathy 提到的 NanoClaw 项目核心引擎仅约 4000 行代码,便于人类审计和 AI 理解,默认在容器中运行。
反对者认为这是 AI 圈频繁造词以维持热度的表现,"Assistant"一词已足够涵盖这些功能。支持者(如 Simon Willison)辩护称,准确命名对技术讨论至关重要——"Agent"定义过于宽泛,而"Claw"关联具体的开源实现和运行模式,能提供更清晰的心理模型。
生态系统中已出现 nanobot、zeroclaw、picoclaw 等项目。这种强调本地运行、具备编排能力的"螯层"被视为 AI 技术栈中极具潜力的新层级。
现有智能体框架如 LangGraph、CrewAI 或 OpenAI Swarm 都要求开发者预先硬编码协作结构。Cord 提出不同思路:让智能体根据目标在运行时动态构建任务树,自主决定何时分解问题、何时并行处理、何时向人类求助。
核心创新在于区分两种上下文流转原语:Spawn(衍生)创建"白板"状态的子智能体,仅提供任务说明;Fork(分叉)创建继承所有同级节点结果的子智能体,适用于需要建立在已有研究基础上的分析任务。
底层实现约 500 行 Python 代码,利用 MCP 工具和共享 SQLite 数据库管理任务状态。智能体可用 read_tree 查看全局树状结构,用 ask 向人类提问并阻塞后续任务,用 complete 提交结果。
社区认为在模型推理能力增强的今天,硬编码工作流确实显得过时。有观点建议将"上下文查询"作为一等公民,允许父智能体通过自然语言指令动态压缩和过滤传递给子智能体的上下文。行为测试显示,Claude 3.5 Sonnet 仅凭清晰的工具描述就能直觉性地学会使用这些原语进行项目分解和错误自愈。
OAuth 解决的问题是:如何在不泄露密码的前提下,授权第三方应用代表用户行使权力。2006 年 Twitter 开发团队为支持桌面客户端而设计了这一机制。
核心逻辑分两部分:在获得用户同意后,向受托方发送一个多次使用的令牌;规定受托方如何利用该令牌代表用户发起请求。OAuth 关注授权("你能做什么"),而建立在其上的 OIDC 关注认证("你是谁")。
OAuth 1.0 作者 Eran Hammer 曾因不满 2.0 版本过于向企业级需求妥协而辞职。他批评 2.0 更像框架而非单一标准,导致互操作性下降——开发者必须针对每个服务商编写特定模块。
尽管如此,OAuth 仍优于基于 XML 的 SAML。OAuth 允许开发者根据需求选择不同授权模式:Authorization Code Grant(三方重定向流程)、Client Credentials Grant(机器对机器通信)、PKCE(防止移动端授权码被拦截)。
通过 JWKs,参与者可自动轮换密钥而无需手动交换证书。社区推荐使用 oauth2-proxy 等工具在反向代理层添加 OAuth 验证,为自建应用提供第三方登录功能。
大语言模型能力惊人却饱受幻觉困扰。Lean 4 作为开源编程语言和交互式定理证明器,通过形式化验证为 AI 系统注入确定性——每段代码或定理都必须通过严格类型检查,产生二元判定:完全正确或失败。
研究框架 Safe 利用 Lean 4 验证 LLM 推理链中的每一步,无法提供形式化证明的主张会被识别为幻觉。Harmonic AI 的 Aristotle 系统在 2025 年 IMO 问题上达到金牌水平,只有当 Lean 4 检查器验证了证明过程才会输出答案。
Lean 4 有望消除软件安全中的逻辑错误,但编写验证代码极度耗费人力。在 VeriBench 基准测试中,原生模型成功率仅 12%,通过自我修正的 AI 代理可提升至近 60%。
社区对"证明即安全"持谨慎态度。核心风险是规格说明错误:即使 Lean 证明代码符合规范,但如果规范本身是错的,"被证明正确"的代码依然会导致灾难。Lean 4 基于闭合世界假说和单调逻辑,而现实世界充满矛盾和缺失信息。部分专家建议 Event-B 或精化类型可能比纯数学路径更具灵活性。
GitHub 项目 ai-ublock-blacklist 为 uBlock Origin 提供规则,屏蔽由生成式 AI 大量制造、缺乏实用信息且充斥广告的网站。作者认为,用户搜索网页是为了寻找人类的经验和创造力,AI 内容不仅平庸,甚至可能在技术建议中产生幻觉误导用户。
作者总结的识别模式包括:冗余华丽的开头(如"在当今快速发展的数字化景观中……")、特定标题模板("终极指南""分步教程")、缺乏外部引用、异常的发布频率(同一作者短时间内发布数万篇文章)、残留的 AI 指令痕迹。
批评集中在误伤风险和维护者态度上。项目早期对被误封站点的申诉采取傲慢态度,缺乏审核和过期机制的黑名单可能变成"永久的名誉黑洞"。
社区对"AI 辅助写作"与"AI 内容农场"的界限表示担忧——母语非英语的用户使用 AI 润色文档属于提高效率,不应被归类为垃圾。部分技术专家认为这是注定失败的军备竞赛,建立白名单可能比封锁无限生成的垃圾信息更有效。
TigerBeetle 数据库团队总结了一套变量命名约定:count 始终指代"项的数量",index 始终指代"特定的某一项"。这建立了明确的不变式:index < count。
在底层系统开发中,程序员需要在强类型表示(如 []T)与原始字节(如 []u8)之间切换。为避免混淆,约定引入 size(字节数量,size = @sizeOf(T) * count)和 offset(字节级偏移量)。
禁用"length"是该约定的核心,因为它含义模糊。Rust 的 str::len 返回字节大小,Python 的 len(str) 返回 Unicode 码位数量。在序列化代码中,这种模糊性经常导致开发者混淆"元素数量"与"字节总数"。
团队还推崇"大端序命名法",如使用 source_index 而非 index_source,让相关变量在词法排序时靠在一起。成对变量名保持相同长度(如 source 和 target)可使代码垂直对齐,任何维度不匹配都会产生视觉违和感。
2026 年 1 月,OpenAI 宣布 ChatGPT 开始展示广告,并收购了 Jony Ive 的硬件初创公司 io。真正的智能化需要 AI"始终在线",持续感知音频和视觉信息以构建用户生活模型。
社区存在分歧:支持者认为这是帮助神经多样性人群管理生活事务的"大脑假体";反对者认为全天候监听会产生强烈疏离感。
面对隐私质疑,大厂通常承诺"加密传输"或"匿名化处理"。但 Google 曾扫描 Gmail 内容长达 13 年,Amazon 也曾计划将 Alexa 对话提供给广告商。当数据存储在云端,用户必须信任公司的员工、供应商和未来政策走向。只要信息存在,就可能被法院传唤或政府搜查。
边缘推理(在设备本地而非云端进行 AI 运算)是目前唯一出路。得益于模型压缩和量化技术,本地硬件已能运行实时语音转文本和语义记忆系统。
但社区仍有保留:家中访客是否同意被录音?消费级硬件性能远落后于云端大模型;为提高准确性,系统往往需要在内存中保留几分钟原始数据。
主流 AI 助手的商业逻辑都与广告收入挂钩,甚至 Apple 也已成为年创收数十亿美元的广告公司。AI 给出的"建议"可能并非最优解,而是付费推广的结果。行业需要一种基于硬件销售而非数据变现的商业模式。
相关链接: