HomeAIAltman为Anthropic辩护,因openai与五角大楼的合作时机和条款受到审查

Altman为Anthropic辩护,因openai与五角大楼的合作时机和条款受到审查

在军事人工智能使用引发的紧张局势加剧之际,OpenAI与五角大楼的合作引发了关于伦理、时机和政府压力的激烈辩论。

Altman承认发布过于仓促且框架不佳

Sam Altman承认OpenAI在与五角大楼的新合作的公开发布上处理不当。在发布于X的内部风格信息中,他写道,公司“不应该仓促”宣布与国防部的协议。

Altman表示,领导层曾试图平息与美国政府的升级对抗。然而,他承认结果“看起来机会主义且草率”,未能传达公司限制其技术有害用途的意图。

该合作在周五被披露,仅在总统唐纳德·特朗普下令联邦机构停止使用Anthropic人工智能系统后数小时。此外,该公告恰逢美国对伊朗的军事行动前夕,加剧了公众对时机的批评。

反对声迅速在社交媒体上传播,许多用户指责OpenAI利用政治打压竞争对手。众多评论者声称删除ChatGPT账户并转向使用Anthropic的Claude模型以示抗议。

合同变更集中于国内监控和情报限制

作为回应,OpenAI目前正在与国防部官员合作修订协议。Altman表示,目标是将OpenAI伦理准则直接嵌入具有法律约束力的语言中,而不是依赖于非正式的政策承诺。

一项关键的新条款规定,“AI系统不得故意用于对美国公民和国民的国内监控。”这一明确的国内监控禁令旨在解决批评者对军事AI部署提出的公民自由问题。

国防官员还确认,国防部合同涵盖的系统不会由美国情报机构如NSA部署。然而,Altman澄清,情报机构的任何未来使用都需要单独的合同和额外的谈判。

尽管如此,Altman坚持认为,OpenAI与五角大楼的合作旨在限制高风险用途,同时允许符合美国法律和公司自身安全规则的狭义防御相关应用。

Anthropic争议构成更广泛的政治背景

OpenAI协议直接源于Anthropic与国防部之间失败的谈判。Anthropic曾推动书面保证其AI模型不会支持国内间谍活动或在没有有意义的人类监督下操作的自主武器系统。

周五,国防部长Pete Hegseth宣布,在谈判破裂后,Anthropic将被指定为供应链威胁。此外,据报道,政府官员数月来一直批评Anthropic对AI安全的强烈重视,认为这限制了战场灵活性。

当报告揭示Anthropic的Claude系统曾在一月份的军事行动中用于针对委内瑞拉总统Nicolás Maduro时,裂痕公开化。Anthropic当时并未公开挑战该部署,这后来引发了对其内部政策一致性的质疑。

尽管随后破裂,Anthropic此前已成为首个在五角大楼安全机密基础设施内部署模型的AI公司,该协议于去年敲定。批评者认为,这一历史使得突然转变为供应链威胁标签尤为显著。

Altman反对Anthropic的风险指定

Altman利用他最新的Sam Altman声明为Anthropic辩护,即使他自己的公司正式化了与五角大楼的合作关系。他表示,他在周末与高级官员进行了对话,敦促他们重新考虑新的分类。

“我重申Anthropic不应被指定为供应链风险,我们希望国防部为他们提供与我们相同的条款,”他写道。然而,五角大楼领导人尚未表示愿意撤销该指定。

Anthropic由前OpenAI研究人员于2021年创立,他们在对战略方向和可接受的军事使用案例的内部争议后离开。该初创公司自此以负责任的AI开发和更严格的对齐控制为品牌。

尽管如此,美国当局尚未公开回应Altman对平等待遇的呼吁,也未详细解释新的Anthropic供应链标签将如何影响未来政府AI采购。

对未来军事AI合同的影响

这场冲突凸显了围绕人工智能的国防部合同授予的政治风险上升。公司现在面临在商业机会与声誉风险和对致命自主系统的担忧之间取得平衡的压力。

此外,该事件突显了关于监控、目标和情报机构排除的合同措辞已成为谈判的核心。Altman的干预表明,主要AI实验室可能会越来越多地游说不仅为自己的交易,也为竞争对手的同等待遇。

随着关于安全标准和国家安全的辩论加剧,这些争议的解决可能会影响五角大楼如何构建先进AI的国防部合同机会,以及哪些公司治理模式在华盛顿获得长期影响力。

总之,OpenAI的仓促发布、Anthropic的风险状态争议,以及对监控和情报使用的不断演变的限制,标志着美国军方在AI合作伙伴关系和问责制方面的新阶段。

RELATED ARTICLES

Stay updated on all the news about cryptocurrencies and the entire world of blockchain.

Featured video

LATEST