微软刚刚推出了 Phi-3-Mini,一款小而强大的产品你有一个模型它可以在智能手机和笔记本电脑上本地运行时执行内容创建等任务,这使其成为资源有限的公司的理想选择。
尽管它是微软迄今为止最小的人工智能模型,并且在比诸如此类的模型小得多的数据集上进行训练GPT-4该公司声称,由于其训练过程优先考虑数据质量而不是数量,因此它的性能可以超过两倍大小的模型。
随着越来越多的大型科技公司喜欢人择谷歌尝试创建更小的、有针对性的人工智能模型,Phi-3-Mini 只是微软计划发布的三个小型模型之一。 我们介绍了用户对更小、更实惠的型号的期望,以及如何亲自测试它。
长期以来,对于人工智能而言,越大意味着越好。 然而,虽然人工智能聊天机器人是在庞大的数据集上进行训练的,比如Gemini 和 ChatGPT由于具有更广泛的应用,许多大型科技公司似乎都在逆势而行,发布了更小的、有针对性的模型,其中包括刚刚发布了迄今为止最小的人工智能模型的微软。
虽然听起来像联谊会,但 Phi-3 Mini 是 Microsoft 构建的三个紧凑型大型语言模型 (LLM) 之一 - 据传 Phi-3-Small 和 Phi-3-Medium 将在未来几个月发布。 该公司最小的模型是在比其他法学硕士小得多的数据集上进行训练的,并且仅测量了 38 亿个参数,而 GPT-4 的参数为 1.76 万亿个。
🔎 想要私密地浏览网页吗? 🌎 或者看起来好像您在另一个国家?
享受 Surfshark 86% 的巨额折扣tech.co 的特别优惠。
然而,尽管训练数据很少,微软声称该模型的性能比去年 12 月发布的前身 Phi-2 好得多,并且生成的响应符合模型标准10倍它的大小。
“创新完全在于我们的训练数据集,这是用于 phi-2 的数据集的放大版本,由经过严格过滤的网络数据和合成数据组成。 该模型还进一步调整了稳健性、安全性和聊天格式。” –微软
Phi-2-Mini 的成功很大程度上归功于其独特的训练方法,该方法严重依赖过滤后的网络数据和合成数据,而不是网络爬行等过程生成的真实数据。 由于合成数据比现实世界的数据获取成本更低、更加多样化且更容易微调,因此它正在成为许多小型人工智能模型的逻辑输入。
小型、轻量级的人工智能模型是未来吗?
由于 Phi-3 Mini 等较小的型号需要较少的计算能力,因此与较大的型号相比,它们通常运行成本更低,并且在手机和笔记本电脑上性能更好。 这使得它们非常适合人工智能预算较小的公司,这些公司使用聊天机器人来完成内容生成或解决数学问题等目标用例。
紧凑型人工智能模型比通用模型显示出明显的优势,微软并不是唯一一家专注于低成本目标聊天机器人的公司。 Google 最近推出了两种以语言为中心的聊天机器人,Gemma 2B 和 7B,Anthropic 最近推出了 Claude 3 Haiku,该机器人的主要目的是总结密集的研究论文。
“如果你有一个非常非常高风险的应用程序,比如说在医疗保健场景中,那么我绝对认为你应该采用前沿模型——最好、最有能力、最可靠的模型。 对于其他用途,其他因素更为重要,包括速度和成本。 这就是你想要与 Phi-3 一起去的地方。” –微软副总裁 Sébastien Bubeck 告诉 Axios。
尽管小型机型最近很受欢迎,但微软还没有放弃大型机型。 该软件制造商表示,Phi-3 等模型并不是为了取代大型模型,而是旨在实现 GPT-4 或 Gemini 等模型无法实现的目标,例如在设备上本地运行。
如何获得微软的 Phi-3-Mini AI?
虽然传统的聊天机器人不会消失,但如果您有兴趣测试 Microsoft 的新型微型聊天机器人,Phi-3-Mini 现已可供公众使用。
微软最近将 Phi-3 添加到了自己的云服务平台 Azure 模型库中,该机器人也可以在开源模型网站 Hugging Face 和 Olloma 上找到。 Phi-3-Small 和 Phi-3-Medium 将来发布时也将在这些平台上提供。
如果 Microsoft 的紧凑型聊天机器人不适合您,或者您想将其与竞争对手进行比较,请查看我们的指南2024 年最佳人工智能聊天机器人。
我们很高兴你喜欢! 就像这样,将更多内容发送到您的收件箱。
很抱歉今天这篇文章对您没有帮助? 我们欢迎反馈,因此如果您认为我们可以改进我们的内容,请发送电子邮件至 [email protected]