微软刚刚推出了其第一个与互联网完全隔离的生成人工智能模型,为美国情报界提供了一种在不损害安全性的情况下分析绝密信息的方法。
新的人工智能模型已经被用来回答问题,并于周四发布——一年前,中央情报局 (CIA) 已经推出了自己的人工智能模型。类似 ChatGPT 的聊天机器人未能充分保护敏感数据。
尽管对该模型准确性的怀疑仍然存在,但鉴于GPT-4的幻觉问题,无互联网模式代表了微软人工智能发展历程中的巨大飞跃,并使美国成为全球第一个使用生成式人工智能来分析情报数据的国家(至少我们知道)。
微软为情报界部署人工智能模型
自 ChatGPT 于 2022 年首次发布以来,生成式 AI 模型已被用来帮助不同行业推动前沿发展。 现在,由于微软专门为分析绝密信息而设计的新人工智能模型,美国情报界也获得了同样的特权。
与大多数依靠云服务从数据推断模式的人工智能模型不同,微软的新模型完全脱离了互联网。 这使得间谍机构可以使用该工具审查机密数据,而不会使其面临数据泄露或黑客攻击等安全风险。
🔎 想要私密地浏览网页吗? 🌎 或者看起来好像您在另一个国家?
获得 Surfshark 86% 的巨额折扣tech.co 的特别优惠。
据微软战略任务和技术首席技术官威廉·查佩尔介绍,该模型是根据爱荷华州的一台人工智能超级计算机修改而来,历时 18 个月才完成。 Chappel 解释说,这项任务一开始是一个充满激情的项目,他的团队在 2022 年开始开发时不确定如何开展这项工作。
“这是我们第一次拥有隔离版本——隔离意味着它没有连接到互联网——而且它位于一个只有美国政府才能访问的特殊网络上,”——William Chappell,微软战略使命和技术首席技术官
通过将人工智能模型与互联网分开,它能够保持“干净”,因为秘密信息不会被回流到平台中。 中央情报局去年试图创建自己的人工智能工具,以与中国等全球人工智能强国竞争。 然而,由于安全问题,这种模型在很大程度上被忽视了。
微软的新人工智能模型值得信赖吗?
理论上,微软的模型现在可以被美国情报界的 10,000 名成员访问。 中央情报局跨国和技术任务中心助理主任希塔尔·帕特尔表示,与目前无法使用这项技术的国际同行相比,这一发展为中央情报局等机构提供了巨大的优势。
帕特尔最近在范德比尔特大学的一次安全会议上宣布,“正在展开一场将生成式人工智能应用到情报数据上的竞赛”。 “第一个将生成式人工智能用于智能的国家将赢得这场竞赛。 我希望它是我们。”
然而,尽管该工具为情报机构提供了令人兴奋的机会,但对其可靠性的怀疑仍然存在。 由于像 GPT-4 这样的大型多模态语言模型是由统计概率驱动的,因此它们已经已知“产生幻觉”时不时地——又名得出错误的结论。
这只会给那些使用该工具完成数学作业等基本任务的人带来一些不便。 然而,使用该技术分析机密、敏感信息可能会带来更高的风险。 微软确保其新的人工智能模型比私人聊天机器人更安全,但软件制造商和中央情报局都没有评论如何审核该模型的准确性。
微软增强竞争优势
对于微软来说,这将是忙碌的一个月,这家总部位于华盛顿的公司最近还透露,它正在开发其迄今为止最大的自制模型 – MAI-1。
该模型 100% 在内部构建,据传拥有约 5000 亿个参数。 虽然这个数字可能仍然让 GPT-4 的 1.76 万亿个参数相形见绌,但它是微软聊天机器人提供的最多配置变量,代表着该公司在人工智能领域的重大飞跃。
微软上个月还发布了三个有针对性的聊天机器人中的第一个 Phi-3-Mini,这证明了大事也可以通过小包装实现。 该模型在比 GPT-4 等替代方案小得多的数据集上进行训练,使其可以在智能手机和笔记本电脑上本地运行,从而降低成本并提高性能。 随着人工智能领域的竞争日益激烈,微软在人工智能开发方面显然加大了力度——而且它似乎正在获得回报。
我们很高兴你喜欢! 就像这样,将更多内容发送到您的收件箱。
很抱歉今天这篇文章对您没有帮助? 我们欢迎反馈,因此如果您认为我们可以改进我们的内容,请发送电子邮件至 [email protected]