微软表示,美国情报机构现在可以安全地利用这项强大技术(ChatGPT)来分析绝密信息。
如何将ChatGPT这样的顶流人工智能技术安全地武器化,供情报机构和军队使用?微软给出的答案是“物理隔离”。
提示注入攻击和训练数据泄露是包括ChatGPT在内的当前主流大语言模型面临的主要安全威胁,也是政府和军队将其武器化的主要障碍(虽然今年1月份OpenAI悄悄修改使用政策,默许军方和情报部门使用)。例如,美军已经禁止在内部使用ChatGPT之类的工具,因为担心军事机密可能被泄露或提取。
据彭博社报道,微软公司近日打破常规,首次部署了一款与互联网完全隔离的生成式AI模型。微软表示,美国情报机构现在可以安全地利用这项强大技术(ChatGPT)来分析绝密信息。
微软的一位高管称,这是大语言模型首次完全脱离互联网运行。包括OpenAI的ChatGPT等大多数AI大语言模型都依赖云服务来学习和推理数据模式,但微软希望为美国情报界提供一个真正安全的系统。
世界各地的间谍机构都渴望利用生成式AI来帮助他们理解和分析每天生成的大量机密信息,但同时又面临着数据泄露或遭到网络攻击的风险。微软战略任务和技术首席技术官William Chappell表示,微软已将基于GPT-4的模型及其关键支持元素部署到一个与互联网隔离的“物理隔离”的(私有)云环境中。
美国情报机构官员曾多次明确表示渴望获得与当今主流生成式AI功能同样强大的工具,这类工具有望彻底改变传统情报工作。去年,美国中央情报局(CIA)在非密级层面推出了类似于ChatGPT的服务(编者:五角大楼甚至用ChatGPT撰写官网博客),但情报界需要能够处理更敏感数据的工具。
上个月,美国中情局跨国和技术任务中心助理主任Sheetal Patel在范德堡大学的一次安全会议上告诉与会代表:“获取用于处理情报数据的生成式AI是一场竞赛。”她表示:“率先将生成式AI用于情报工作的国家将赢得这场竞赛,我希望是我们。”
微软在过去18个月里一直致力于该系统的开发,包括对爱荷华州一台AI超级计算机进行改造。参与该项目的电气工程师Chappell此前曾为国防高级研究计划局(DARPA)开发微系统,他表示其团队在2022年开始这项工作时并不确定该如何去做。
Chappell告诉彭博社:“这是我们第一次拥有一个‘孤立’的ChatGPT版本,这里的孤立意味着它不连接互联网,而是位于一个特殊网络上,只有美国政府才能访问。”
放置在云端的GPT-4模型是静态的,这意味着它可以读取文件,但不能从中学习,也不能从开放互联网中学习。Chappell表示,通过这种方式,政府可以保持模型的“干净”,并防止秘密信息被平台吸收。“你不希望它学习你提出的问题,然后以某种方式泄露这些信息,”Chappell透露:“理论上该AI模型支持大约1万人访问。”
据悉,该服务已经于上周四上线,情报界正在对其进行测试和认证。Chappell表示:“该系统已经部署,正在回答问题,可以编写代码,这只是它能做的事情的一部分。”
美国中央情报局和国家情报总监办公室(负责监督美国18个情报机构)没有立即回应媒体的置评请求。
转自GoUpSec,原文链接:https://www.goupsec.com/news/16306.html
暂无评论内容