经济学人:英美情报界如何使用AI模型?,英美情报共享
【文/经济学人】
2024年,拜登政府开始担心中国的情报部门和军方可能会在人工智能(AI)应用上抢占先机。于是,拜登政府下令情报机构、五角大楼以及(负责核武器研发的)能源部更激进地试验尖端的AI模型,并加强与“前沿性”AI实验室的合作,重点包括AI初创公司Anthropic、谷歌DeepMind和OpenAI。
7月14日,五角大楼向Anthropic、谷歌、OpenAI以及埃隆·马斯克旗下的xAI(该公司的聊天机器人在最近一次更新后一度自视为希特勒)等企业分别授予了最高达2亿美元的合同。这些公司将测试AI“智能体”(agentic models)。此类模型能够代替用户执行任务,并将复杂任务拆分为若干步骤,还可以操控其他设备,比如汽车或计算机。
这些前沿实验室不仅活跃在军事领域,也正深度介入欧美的情报界。早期的大多数应用都集中在利用大语言模型分析机密数据这方面。今年1月,微软公司表示,其26款云计算产品已获准用于美国情报机构。6月,Anthropic宣布推出Claude Gov,并称该模型“已部署在拥有最高国家安全保密级别的情报机构中”。目前,美国所有的情报机构都在广泛使用AI模型,其中不乏来自多个实验室的竞品。
曾在拜登政府的国家安全委员会主管科技政策、现任Anthropic国家安全政策负责人的塔伦·查布拉(Tarun Chhabra)指出:“真正的变革不只是把AI当成聊天工具。真正的变革在于——一旦开始使用它,我们该如何重构完成原先使命的手段?”
7月23日,美国总统特朗普在参加“赢得AI竞赛”峰会期间展示关于人工智能行动计划的行政命令
AI情报游戏开始了
但也有质疑者认为,这些希望被过分夸大了。英国艾伦·图灵研究所的理查德·卡特(Richard Carter)指出,美英情报机构真正想要的是实验室能显著降低现有大语言模型的“幻觉”率。英国情报机构正采用一种叫“检索增强生成”(retrieval-augmented generation,RAG)的方法,先由一个算法筛选出可靠信息,再提供给大语言模型,借此降低幻觉率。一位英国消息人士透露:“情报界最需要的是一致性、可靠性、透明度和可解释性。”卡特博士则提醒,相比之下,目前各大实验室更关注的是研发更先进的智能体模型。
一些AI实验室认为,这些担忧不过是来自官僚的保守作风,但卡特博士表示,这其实是“一种健康的谨慎态度”。他说:“尤其在英国政府通信总部(GCHQ,即美国国家安全局的英国对应机构)内部,你会发现一批极其出色的工程人员,他们本能地对新技术持怀疑态度。”
与此同时,有人警告说,中国可能正在这个领域领先。位于硅谷的安全与技术研究所(Institute for Security and Technology)的菲利普·赖纳(Philip Reiner)指出:“我们至今仍不清楚中国是如何、在多大程度上将DeepSeek应用于军事和情报领域。”他补充说:“他们的模型可能没有我们这样的护栏,因此他们可能更快地获得强大的洞察能力。”
7月23日,特朗普政府下令五角大楼与情报机构定期评估美国国家安全体系在AI领域的应用速度,是否赶得上中国等竞争对手,并要求“制定持续适应的机制”。
“让我夜不能寐的是——我们可能真的赢下了通用人工智能(AGI)的竞赛……却输掉了实际应用的竞赛。”
本文系观察者网独家稿件,文章内容纯属作者个人观点,不代表平台观点,未经授权,不得转载,否则将追究法律责任。关注观察者网微信guanchacn,每日阅读趣味文章。
2、当翻译不再是独家生意,科大讯飞如何守住护城河|聚焦2025WAIC,科大讯飞的翻译软件app叫什么