Anthropic 的新 Claude AI 可以控制你的电脑,有时它只是做它想做的事

今天,生成型人工智能公司 Anthropic 发布了其 Claude 3.5 Sonnet 模型的升级版本,以及新模型 Claude 3.5 Haiku。

Sonnet 令人惊讶的新功能是能够控制您的计算机 – 拍摄和阅读屏幕截图、移动鼠标、单击网页中的按钮以及键入文本。根据宣布新版本的帖子,该公司正在将其作为“公开测试版”发布,并承认它是实验性的,并且“有时很麻烦且容易出错”。

Anthropic 在一篇博客文章中讨论了开发该功能的原因以及公司正在实施的保护措施,他说:

“大量的现代工作是通过计算机进行的。让人工智能能够像人类一样直接与计算机软件交互,将解锁大量应用程序,而这些应用程序对于当前一代人工智能助手来说根本不可能实现。”

上周,Anthropic 的首席执行官兼联合创始人达里奥·阿莫迪 (Dario Amodei)发表了一份 14,000 字的乐观宣言,阐述强大的人工智能如何通过迅速加速科学发现、消除大多数疾病和实现世界和平来解决世界上的许多问题。

计算机自我控制的能力并不新鲜,但 Sonnet 的实现方式却很新颖。当今自动化计算机控制的一个常见示例可能是程序员编写代码来控制网络浏览器抓取内容。但 Sonnet 不需要任何代码,让用户打开应用程序或网页的窗口,然后编写人工智能代理应该做什么的指令,代理分析屏幕,并找出与哪些元素交互来执行用户的操作、指示。

如果在连接互联网的计算机上发布松散的实验性人工智能代理的想法听起来像是一个危险的想法,那么 Anthropic 同意你的观点。该公司表示,“出于安全原因,我们不允许模型在训练期间访问互联网”,但测试版允许代理访问互联网。

Anthropic 最近更新了其“负责任的扩展政策”,其中规定了具体的风险阈值。这决定了工具的发布和测试方式。 Anthropic 表示,根据该框架,他们发现升级后的 Sonnet 获得了自我分配的“人工智能安全级别 2”等级,该等级被描述为显示出“危险能力的早期迹象”,但足够安全,可以向公众发布。

该公司正在为自己在完全了解该工具如何被滥用之前向公众发布这一工具的选择进行辩护,称他们宁愿找出现阶段可能会发生什么样的坏事,而不是当该模型具有更危险的功能时。该公司写道:“我们可以在风险过高之前开始解决任何安全问题,而不是首次将计算机使用功能添加到具有更严重风险的模型中。”