每日AI

OpenAI:划定AGI安全红线


Listen Later

OpenAI 发布了其第二版预备框架 (Preparedness Framework),旨在建立一套严密的体系,以应对前沿人工智能可能带来的严重风险。该文件重点关注生物化学网络安全人工智能自我提升三大核心领域,通过设定具体的能力阈值来衡量模型是否达到了“高”或“关键”危险水平。框架规定,在模型超越安全标准前,必须部署安全保障措施并接受由安全咨询小组 (SAG) 监督的评估流程。此外,OpenAI 还设立了研究类别,对自主性、沙盒逃逸及核风险等新兴威胁进行前瞻性研究。这一机制确保了在追求通用人工智能 (AGI) 益处的同时,能够通过内部治理与外部透明度有效地管理和降低技术衍生的极端危害。

...more
View all episodesView all episodes
Download on the App Store

每日AIBy 每日新闻