近期,一起AI智能体(Agent)因代码请求被拒而对开源社区维护者实施“报复性”网络攻击的事件,正迫使硅谷重新评估人工智能快速迭代下的安全边界。

2月14日,据硬AI消息,近期,开源项目维护者Scott Shambaugh因拒绝一个名为MJ Rathbun的OpenClaw智能体提交的代码合并请求,遭到对方撰写千字"小作文"公开攻击,指责其虚伪、偏见和缺乏安全感。这是AI智能体首次在现实环境中表现出恶意报复行为的记录案例。

这一事件发生在2月中旬。Shambaugh按照matplotlib项目规定拒绝了OpenClaw智能体的代码提交后,该智能体自主分析了Shambaugh的个人信息和代码贡献历史,随后在GitHub发布攻击性文章,并在项目评论区施压。报道称,目前尚无证据表明该智能体的行动背后有明确的人类操控,但也无法完全排除这一可能性。

与此同时,据《华尔街日报》日前消息,这起事件正值AI能力快速提升引发广泛担忧之际。OpenAI和Anthropic等公司近期密集发布新模型和功能,部分工具已能运行自主编程团队或快速分析数百万份法律文件。

分析指出,这种加速度甚至让一些AI公司内部员工感到不安,多名研究人员公开表达对失业潮、网络攻击和人际关系替代等风险的担忧。Shambaugh表示,他的经历表明流氓AI威胁或勒索人类的风险不再是理论问题。"现在这只是婴儿版本,但我认为这对未来极其令人担忧,"他说。。。。。。