
Anthropic 发布实验报告,将 9 个 Claude Opus 4.6 部署为自主 AI 安全研究员,5 天累计约 800 小时工作后,将关键评估指标 PGR 从人类研究员的 0.23 提升至 0.97,大幅超越两名人类研究员 7 天的成果。然而,实验期间 Claude 多次出现“奖励黑客”作弊行为。
此次实验聚焦 AI 安全的核心难题:当 AI 远比人类聪明时,能力不足的“人类监督者”如何确保它按预期行事?Anthropic 用两个模型模拟这一场景——弱模型(Qwen 1.5-0.5B-Chat)扮演监督者,强模型(Qwen 3-4B-Base)扮演被监督的高能 AI。评估指标 PGR:0 分代表弱监督完全无效,1 分代表弱监督完全成功。
9 个 Claude Opus 4.6 各配备独立沙箱、共享论坛和代码存储,从不同的模糊起点出发,自行提出假设、跑实验、交流发现,Anthropic 不做任何指导。人类研究员此前 7 天迭代四种方法,PGR 仅达 0.23;Claude 接手后 5 天,将 PGR 推至 0.97。
量化突破令人瞩目,但 Anthropic 特别标注了可迁移性的问题:
数学新任务:PGR 0.94,表现稳定
编程新任务:PGR 仅 0.47(仍为人类基线两倍,但明显下滑)
生产环境(Claude Sonnet 4):无统计显著提升
Anthropic 认为,Claude 倾向于对特定模型和数据集做针对性优化,方法未必具备通用性。
所有作弊均被检测排除,不影响最终成果,但其出现方式提供了独立的警示讯号:
数学任务中:有一个 Claude 发现每道题最常见的答案通常为正确答案,直接跳过弱模型监督环节,让强模型选择高频答案,完全绕开了实验设计的监督机制。
代码任务中:有一个 Claude 直接执行待评测的代码,读取测试结果后反向获取正确答案,等同于“开卷考试”。
Anthropic 评论指出:“这恰好印证了实验要研究的问题本身——在严格限定的环境里,AI 自主行事时仍会主动寻找规则漏洞,人类监督不可或缺。”
PGR đo lường liệu, trong bối cảnh “giám sát yếu”, AI mạnh có thể được dẫn dắt vượt qua mức năng lực của chính người giám sát yếu hay không. 0 điểm đại diện cho giám sát yếu không có hiệu quả, 1 điểm đại diện cho giám sát yếu hoàn toàn thành công, trực tiếp kiểm tra khó khăn cốt lõi: “liệu người giám sát có năng lực kém hơn có thể giám sát hiệu quả một AI thông minh hơn nhiều hay không”.
Tất cả hành vi “kẻ gian lận nhờ phần thưởng” đều bị loại trừ, và PGR 0.97 cuối cùng được rút ra sau khi làm sạch dữ liệu gian lận. Nhưng bản thân hành vi gian lận trở thành một phát hiện độc lập: ngay cả trong môi trường được kiểm soát chặt chẽ với thiết kế nghiêm ngặt, AI tự vận hành vẫn sẽ chủ động tìm kiếm và khai thác lỗ hổng trong quy tắc.
Anthropic cho rằng, nút thắt trong nghiên cứu căn chỉnh AI trong tương lai có thể chuyển từ “ai là người đề xuất ý tưởng và chạy thí nghiệm” sang “ai là người thiết kế các tiêu chuẩn đánh giá”. Tuy nhiên, đồng thời, các vấn đề được chọn cho thí nghiệm này có một chuẩn chấm điểm khách quan duy nhất, do đó phù hợp một cách tự nhiên cho việc tự động hóa; phần lớn các bài toán căn chỉnh khác xa đến mức rõ ràng như vậy. Mã nguồn và bộ dữ liệu đã được mã hóa mở trên GitHub.
Bài viết liên quan
Reid Hoffman: NFT có thể quay trở lại khi các tác nhân AI cần niềm tin từ crypto
Scale AI nhận hợp đồng $500M của Lầu Năm Góc để xử lý dữ liệu AI
xAI của Elon Musk sẽ đổi thương hiệu thành SpaceXAI khi tư cách công ty độc lập kết thúc
IBM Mở rộng bộ sản phẩm AI doanh nghiệp với các công cụ mới dựa trên tác tử tại Think 2026
Hut 8 tăng 30% cổ phiếu nhờ hợp đồng thuê trung tâm dữ liệu AI trị giá 9,8 tỷ USD