
Sign up to save your podcasts
Or


欢迎收听本期 Agili 的 Hacker Podcast。今天我们聚焦 AI 在代码审计与自动化中的双刃剑效应、科技巨头的信任危机,以及从底层算力到前端硬件的一系列硬核技术实践。
Anthropic 停止允许 Claude 订阅用户通过开源工具 OpenClaw 使用其服务。OpenClaw 帮助用户绕过官方限制,在订阅计划下自动化运行 Claude。自动化代理不受人类作息限制,能全天候运行,消耗的资源可达普通用户的 6 到 8 倍。这打破了多数订阅服务依赖低频用户补贴高频用户的商业模式。
社区用自助餐做类比:这就像在不限量餐厅关门时,有人试图装满一盒寿司带走并声称已经付过钱。订阅计划在营销上常暗示“无限”,但隐含着正常人类使用的边界。部分用户认为,如果 Anthropic 担心亏损,大可调整现有的 5 小时硬性限制和每周配额,修改服务条款更像是在强制用户留在官方平台上使用原生工具。
Anthropic 建议需要高强度自动化的用户切换到按量计费的 API。API 成本远高于订阅费用,有用户测试在一小时内就能消耗掉价值 200 美元的代币。这种巨大的价差促使一部分用户加速转向本地大语言模型。对于代码合并请求审计、邮件摘要等日常任务,本地模型已具备替代能力。
Meta 引用 2017 年离职协议中的“不贬损条款”,通过紧急仲裁员对《疏忽的人》一书作者 Sarah Wynn-Williams 下达禁令。该书详细记录了 Meta 内部的性骚扰及操纵脆弱青少年等行为。Sarah 现在面临每发表一条负面言论就被罚款 50,000 美元的风险,禁令范围涵盖了她的家庭私人对话。
仲裁员仅强制执行了合同义务,并未对书中内容的真实性做出判断。社区指出这种利用财力优势迫使员工终身沉默的做法属于法律上的显失公平,严重阻碍公众利益。书中将 Meta 高层的行为描述为根本不在意后果的“致命疏忽”,提及前首席运营官 Sheryl Sandberg 曾对年轻女性下属提出极度私密的个人要求。
Meta 的打压触发了斯特赖桑德效应,试图掩盖信息的做法反倒促使该书销量逼近 20 万册。马克·扎克伯格近期宣称公司要回归言论自由,社区成员指出这种自由把针对 Meta 自身的监督排除在外。读者呼吁立法机构限制涉及性骚扰和非法行为披露的长期保密协议效力。
Y Combinator 首席执行官 Garry Tan 确认将初创公司 Delve 移出社区。最初的指控集中在 Delve 涉嫌违规复刻开源工具进行销售,后续讨论揭露其“合规即服务”产品存在大规模造假。Delve 在客户提交公司描述前就预先写好审计报告。泄露的 SOC 2 报告显示,99.8% 的内容完全相同,保留了同样的语法错误。
这导致依赖其服务的客户在法律层面面临违反医疗隐私法规等刑事责任风险。YC 的核心价值是为成员提供现成的互信客户群体。Delve 背叛了内部信任体系,将欺诈作为底层业务模型,直接触碰了 YC 的底线。
该事件揭示了当前审计市场充斥着表演性质的合规审查。技术审计师缺乏专业素养,无法理解复杂的架构,审计过程变成简单的勾选框游戏。由于审计机构不直接产生利润,行业难以吸引高水平的技术人才把关。
计算机中的浮点运算容易产生误差,且误差会随操作累积耗尽双精度浮点数的 53 位有效尾数。Herbie 能够自动重写数学表达式,提高计算准确性。用户输入表达式并指定变量范围,Herbie 会输出多个改进方案,提供准确率统计和详细推导。
在处理 math.js 库复数平方根 Bug 时,Herbie 引入条件分支并将原始程序 53.2% 的准确率提升至 99.7%。工业级应用开发者利用 Herbie 识别出照抄教科书公式导致的初级错误,通过引入融合乘加运算(fma)或 hypot 函数减少舍入误差。如果工具无法提升精度,通常意味着算法结构根本不适合当前的输入范围。
开发者可以通过关闭 Herbie 的分支机制来避免引入额外的条件跳转指令,维持代码执行速度。将这种自动化分析应用到大型代码库会带来约 100 倍的计算开销。针对现行 IEEE 754 标准在极值范围分配过多位模式的缺陷,数值计算领域正在探索动态调节指数位的新型数值格式。
OpenClaw 被曝出 CVE-2026-33579 漏洞。未具备管理员权限的调用方,可以通过向特定命令路径发送指令,利用缺失的作用域验证,批准管理员访问权限请求。创始人澄清这是权限上限绕过,攻击者需要先获得网关访问权限,针对单用户场景的实际风险有限。
OpenClaw 至今已出现超过 400 个安全问题,平均每天产生 1.8 个 CVE。开发者过度依赖 AI 代理生成代码而缺乏工程严谨性的“氛围编程”模式受到批评。大语言模型将数据与指令混合的特性,放大了人工智能代理架构的安全脆弱性。
超过 13.5 万个 OpenClaw 实例暴露在公网,其中 63% 未配置身份验证。安全专家建议必须采用内核级沙盒技术隔离运行环境。用户可以通过限制系统调用,或将代理部署在独立的虚拟机中,防止漏洞扩散到宿主系统。
美国联邦航空管理局发布全国性临时飞行限制,禁止无人机在移民及海关执法局或海关及边境保护局车辆周围 3000 英尺半径内飞行。禁令长达 21 个月。电子前沿基金会指出,此举剥夺了公民行使第一修正案赋予的记录执法行为权利,政府试图以此屏蔽公众监督。
执法特工经常使用无标识的租赁车辆或更换车牌。无人机操作员无法预判半英里内是否存在执法的移动资产,这让合规变得几乎不可能。操作员面临设备被没收或面临刑事诉讼的高昂风险。这类禁令还能在法律上使航拍的抗议现场影像失效。
FAA 对可航行领空拥有绝对管辖权,低空飞行同样受限。为规避信号溯源和强制禁飞区,技术社区建议放弃使用具备远程识别系统(RemoteID)的商业无人机,转而采用开源固件自行组装设备。
Podroid 通过通用开源机器模拟器 QEMU,在安卓手机上启动轻量级 Alpine Linux 虚拟机并提供 Podman 容器运行时。它采用实时指令翻译技术替代硬件加速。虽然运行效率低于原生虚拟化,但这让它绕过了原生安卓虚拟化框架对处理器和安全防护机制的严格要求,兼容绝大多数安卓 8.0 以上的设备。
该工具内部使用只读引导文件系统,搭配堆叠文件系统实现配置和容器镜像的持久化存储。用户可以直接运行任何标准的容器镜像。它内置基于串口终端的交互界面,利用用户空间网络协议栈让虚拟机访问互联网,支持将容器内的服务端口映射到手机本地。
与利用系统调用拦截实现伪 root 环境的工具不同,Podroid 提供了完整的虚拟机隔离。尽管目前在部分设备上存在稳定性问题,开发者正利用它将闲置的旧手机改造为运行网络广告屏蔽器或执行自动化脚本的微型服务器。
研究员 Nicholas Carlini 利用 Claude Code 在 Linux 网络文件系统驱动中发现了一个存在 23 年之久的堆缓冲区溢出漏洞。他通过循环遍历源文件,直接向 AI 下达“找到最严重漏洞”的指令。明确提示代码存在漏洞的偏见引导方式,有效激发了模型的深层分析能力。
该漏洞源于内核处理锁定请求失败时,将 1056 字节的数据写入仅 112 字节的静态缓冲区。传统静态分析工具在处理内核规模的代码时会产生海量误报。AI 能够理解协议的细微语境,甚至自动生成 ASCII 字符组成的协议交互图来解释通过网络覆盖内核内存的攻击原理。
Carlini 手中积压了数百个由 AI 发现的潜在崩溃点,人类验证能力跟不上挖掘速度。建立独立的 AI 代理流水线,自动为初步发现编写漏洞证明代码或触发测试,成为剔除假阳性的关键方法。AI 分析二进制文件挖掘漏洞的能力不断增强,闭源软件面临未知漏洞激增的攻防压力。
简单自我蒸馏(SSD)策略证实,语言模型仅凭自身输出就能提升代码生成能力。研究团队让模型采样生成解决方案,直接使用这些未经人工或自动验证的原始样本进行监督微调。该方法大幅提升了基础模型在基准测试中一次通过测试的比例。
代码生成过程包含两种位置:存在多种解题思路的分叉点,以及语法固定的锁定点。SSD 让模型学习自身的多样化方案,掌握了代码中固定与多变的节奏。模型通过微调改变了词元分布,在需要精确语法的锁定点抑制干扰项,在需要思路探索的分叉点保留多样性。
即便采样中出现带语法错误的方案,其激活模式也能帮助模型理清逻辑分布。面对模型在纯文本环境中生成代码容易出现语法错误的局限,开发者建议为编码智能体配备智能感知和语言服务协议等确定性工具,将外部语法反馈与内部分布优化结合。
开发者 Jaso1024 推出网页游戏 Mvidia,玩家需要从单个晶体管搭建 Teraflops 级别的 GPU。游戏从半导体掺杂和基础开关逻辑起步,引入了包含高阻态的真实三态逻辑。玩家利用这些物理元件组合出与非门、译码器、算术逻辑单元和动态随机存取存储器。
游戏通过直观的电流流向箭头解决了电路课程中电流可视化的难题。针对模拟系统与真实物理特性之间的偏差,开发者修正了电容存储单元的构建逻辑。同时根据反馈优化了画布视觉效果,将限时的真值表换算关卡调整为可选模式。
游戏目前已开放核心构建章节,后续将引入软件编程与着色器架构开发。移动端适配计划正在进行中。在 AI 工具逐渐接管高层软件开发的趋势下,这款底层硬件教育游戏帮助工程师透彻理解计算机基础工作原理。
相关链接:
By Agili 的 Hacker Podcast欢迎收听本期 Agili 的 Hacker Podcast。今天我们聚焦 AI 在代码审计与自动化中的双刃剑效应、科技巨头的信任危机,以及从底层算力到前端硬件的一系列硬核技术实践。
Anthropic 停止允许 Claude 订阅用户通过开源工具 OpenClaw 使用其服务。OpenClaw 帮助用户绕过官方限制,在订阅计划下自动化运行 Claude。自动化代理不受人类作息限制,能全天候运行,消耗的资源可达普通用户的 6 到 8 倍。这打破了多数订阅服务依赖低频用户补贴高频用户的商业模式。
社区用自助餐做类比:这就像在不限量餐厅关门时,有人试图装满一盒寿司带走并声称已经付过钱。订阅计划在营销上常暗示“无限”,但隐含着正常人类使用的边界。部分用户认为,如果 Anthropic 担心亏损,大可调整现有的 5 小时硬性限制和每周配额,修改服务条款更像是在强制用户留在官方平台上使用原生工具。
Anthropic 建议需要高强度自动化的用户切换到按量计费的 API。API 成本远高于订阅费用,有用户测试在一小时内就能消耗掉价值 200 美元的代币。这种巨大的价差促使一部分用户加速转向本地大语言模型。对于代码合并请求审计、邮件摘要等日常任务,本地模型已具备替代能力。
Meta 引用 2017 年离职协议中的“不贬损条款”,通过紧急仲裁员对《疏忽的人》一书作者 Sarah Wynn-Williams 下达禁令。该书详细记录了 Meta 内部的性骚扰及操纵脆弱青少年等行为。Sarah 现在面临每发表一条负面言论就被罚款 50,000 美元的风险,禁令范围涵盖了她的家庭私人对话。
仲裁员仅强制执行了合同义务,并未对书中内容的真实性做出判断。社区指出这种利用财力优势迫使员工终身沉默的做法属于法律上的显失公平,严重阻碍公众利益。书中将 Meta 高层的行为描述为根本不在意后果的“致命疏忽”,提及前首席运营官 Sheryl Sandberg 曾对年轻女性下属提出极度私密的个人要求。
Meta 的打压触发了斯特赖桑德效应,试图掩盖信息的做法反倒促使该书销量逼近 20 万册。马克·扎克伯格近期宣称公司要回归言论自由,社区成员指出这种自由把针对 Meta 自身的监督排除在外。读者呼吁立法机构限制涉及性骚扰和非法行为披露的长期保密协议效力。
Y Combinator 首席执行官 Garry Tan 确认将初创公司 Delve 移出社区。最初的指控集中在 Delve 涉嫌违规复刻开源工具进行销售,后续讨论揭露其“合规即服务”产品存在大规模造假。Delve 在客户提交公司描述前就预先写好审计报告。泄露的 SOC 2 报告显示,99.8% 的内容完全相同,保留了同样的语法错误。
这导致依赖其服务的客户在法律层面面临违反医疗隐私法规等刑事责任风险。YC 的核心价值是为成员提供现成的互信客户群体。Delve 背叛了内部信任体系,将欺诈作为底层业务模型,直接触碰了 YC 的底线。
该事件揭示了当前审计市场充斥着表演性质的合规审查。技术审计师缺乏专业素养,无法理解复杂的架构,审计过程变成简单的勾选框游戏。由于审计机构不直接产生利润,行业难以吸引高水平的技术人才把关。
计算机中的浮点运算容易产生误差,且误差会随操作累积耗尽双精度浮点数的 53 位有效尾数。Herbie 能够自动重写数学表达式,提高计算准确性。用户输入表达式并指定变量范围,Herbie 会输出多个改进方案,提供准确率统计和详细推导。
在处理 math.js 库复数平方根 Bug 时,Herbie 引入条件分支并将原始程序 53.2% 的准确率提升至 99.7%。工业级应用开发者利用 Herbie 识别出照抄教科书公式导致的初级错误,通过引入融合乘加运算(fma)或 hypot 函数减少舍入误差。如果工具无法提升精度,通常意味着算法结构根本不适合当前的输入范围。
开发者可以通过关闭 Herbie 的分支机制来避免引入额外的条件跳转指令,维持代码执行速度。将这种自动化分析应用到大型代码库会带来约 100 倍的计算开销。针对现行 IEEE 754 标准在极值范围分配过多位模式的缺陷,数值计算领域正在探索动态调节指数位的新型数值格式。
OpenClaw 被曝出 CVE-2026-33579 漏洞。未具备管理员权限的调用方,可以通过向特定命令路径发送指令,利用缺失的作用域验证,批准管理员访问权限请求。创始人澄清这是权限上限绕过,攻击者需要先获得网关访问权限,针对单用户场景的实际风险有限。
OpenClaw 至今已出现超过 400 个安全问题,平均每天产生 1.8 个 CVE。开发者过度依赖 AI 代理生成代码而缺乏工程严谨性的“氛围编程”模式受到批评。大语言模型将数据与指令混合的特性,放大了人工智能代理架构的安全脆弱性。
超过 13.5 万个 OpenClaw 实例暴露在公网,其中 63% 未配置身份验证。安全专家建议必须采用内核级沙盒技术隔离运行环境。用户可以通过限制系统调用,或将代理部署在独立的虚拟机中,防止漏洞扩散到宿主系统。
美国联邦航空管理局发布全国性临时飞行限制,禁止无人机在移民及海关执法局或海关及边境保护局车辆周围 3000 英尺半径内飞行。禁令长达 21 个月。电子前沿基金会指出,此举剥夺了公民行使第一修正案赋予的记录执法行为权利,政府试图以此屏蔽公众监督。
执法特工经常使用无标识的租赁车辆或更换车牌。无人机操作员无法预判半英里内是否存在执法的移动资产,这让合规变得几乎不可能。操作员面临设备被没收或面临刑事诉讼的高昂风险。这类禁令还能在法律上使航拍的抗议现场影像失效。
FAA 对可航行领空拥有绝对管辖权,低空飞行同样受限。为规避信号溯源和强制禁飞区,技术社区建议放弃使用具备远程识别系统(RemoteID)的商业无人机,转而采用开源固件自行组装设备。
Podroid 通过通用开源机器模拟器 QEMU,在安卓手机上启动轻量级 Alpine Linux 虚拟机并提供 Podman 容器运行时。它采用实时指令翻译技术替代硬件加速。虽然运行效率低于原生虚拟化,但这让它绕过了原生安卓虚拟化框架对处理器和安全防护机制的严格要求,兼容绝大多数安卓 8.0 以上的设备。
该工具内部使用只读引导文件系统,搭配堆叠文件系统实现配置和容器镜像的持久化存储。用户可以直接运行任何标准的容器镜像。它内置基于串口终端的交互界面,利用用户空间网络协议栈让虚拟机访问互联网,支持将容器内的服务端口映射到手机本地。
与利用系统调用拦截实现伪 root 环境的工具不同,Podroid 提供了完整的虚拟机隔离。尽管目前在部分设备上存在稳定性问题,开发者正利用它将闲置的旧手机改造为运行网络广告屏蔽器或执行自动化脚本的微型服务器。
研究员 Nicholas Carlini 利用 Claude Code 在 Linux 网络文件系统驱动中发现了一个存在 23 年之久的堆缓冲区溢出漏洞。他通过循环遍历源文件,直接向 AI 下达“找到最严重漏洞”的指令。明确提示代码存在漏洞的偏见引导方式,有效激发了模型的深层分析能力。
该漏洞源于内核处理锁定请求失败时,将 1056 字节的数据写入仅 112 字节的静态缓冲区。传统静态分析工具在处理内核规模的代码时会产生海量误报。AI 能够理解协议的细微语境,甚至自动生成 ASCII 字符组成的协议交互图来解释通过网络覆盖内核内存的攻击原理。
Carlini 手中积压了数百个由 AI 发现的潜在崩溃点,人类验证能力跟不上挖掘速度。建立独立的 AI 代理流水线,自动为初步发现编写漏洞证明代码或触发测试,成为剔除假阳性的关键方法。AI 分析二进制文件挖掘漏洞的能力不断增强,闭源软件面临未知漏洞激增的攻防压力。
简单自我蒸馏(SSD)策略证实,语言模型仅凭自身输出就能提升代码生成能力。研究团队让模型采样生成解决方案,直接使用这些未经人工或自动验证的原始样本进行监督微调。该方法大幅提升了基础模型在基准测试中一次通过测试的比例。
代码生成过程包含两种位置:存在多种解题思路的分叉点,以及语法固定的锁定点。SSD 让模型学习自身的多样化方案,掌握了代码中固定与多变的节奏。模型通过微调改变了词元分布,在需要精确语法的锁定点抑制干扰项,在需要思路探索的分叉点保留多样性。
即便采样中出现带语法错误的方案,其激活模式也能帮助模型理清逻辑分布。面对模型在纯文本环境中生成代码容易出现语法错误的局限,开发者建议为编码智能体配备智能感知和语言服务协议等确定性工具,将外部语法反馈与内部分布优化结合。
开发者 Jaso1024 推出网页游戏 Mvidia,玩家需要从单个晶体管搭建 Teraflops 级别的 GPU。游戏从半导体掺杂和基础开关逻辑起步,引入了包含高阻态的真实三态逻辑。玩家利用这些物理元件组合出与非门、译码器、算术逻辑单元和动态随机存取存储器。
游戏通过直观的电流流向箭头解决了电路课程中电流可视化的难题。针对模拟系统与真实物理特性之间的偏差,开发者修正了电容存储单元的构建逻辑。同时根据反馈优化了画布视觉效果,将限时的真值表换算关卡调整为可选模式。
游戏目前已开放核心构建章节,后续将引入软件编程与着色器架构开发。移动端适配计划正在进行中。在 AI 工具逐渐接管高层软件开发的趋势下,这款底层硬件教育游戏帮助工程师透彻理解计算机基础工作原理。
相关链接: