2月25日消息,Anthropic近期调整了其人工智能安全政策,将原先禁止在安全措施未完全到位前训练高级人工智能系统的承诺删除。这一改变使Anthropic在与OpenAI、谷歌和xAI的竞争中获得更大灵活性,同时也引发业界对人工智能快速发展与安全保障平衡的讨论。
Anthropic首席科学官 Jared Kaplan 表示,停止训练并不能真正解决安全问题,而在竞争对手快速推进的情况下,单方面暂停开发并不明智。该公司强调将通过发布前沿安全路线图和定期风险报告来提高透明度,并在发现重大灾难风险时延迟开发。
兰德公司高级政策研究员 Edward Geist 指出,早期的人工智能安全概念源于关注强大AI的特定群体,当前的大型语言模型(LLM)使这一概念发生了重新定义。政策措辞的改变向投资者和政策制定者传递出信号:公司在保持经济竞争力的同时,也在寻求风险管理。
OpenAI也在2024年修改了使命宣言,删除“安全”一词,将目标表述为“确保通用人工智能造福全人类”。这一系列调整显示,行业领导者在政策和表述上都在向更灵活、可扩展的战略转变。
Anthropic近期完成300亿美元融资,估值约为3800亿美元;OpenAI也在筹集高达1000亿美元资金。这一背景下,人工智能公司面临地缘政治竞争和政府合同考量。美国国防部是否继续与Anthropic合作尚未确定,这使政策转向更为审慎且具有策略性。
综合来看,Anthropic与OpenAI的政策调整标志着人工智能行业在快速发展与安全监管之间的博弈进入新阶段,同时也反映了企业在资本推动和政治压力下的战略灵活性。