生成数据智能

这款超轻 AI 模型适合你的手机,可以击败 ChatGPT – Decrypt

日期:

微软今天 声称 它已经发布了“可用的功能最强大且最具成本效益的小语言模型(SLM)”,并表示 Φ3——其第三次迭代 小语言模型 Phi 系列 (SLM)——优于同等大小的模型和一些较大的模型。

小语言模型 (SLM) 是一种 AI 模型,旨在极其高效地执行特定语言相关任务。与非常适合各种通用任务的大型语言模型 (LLM) 不同,SLM 构建在较小的数据集上,使其对于特定用例更加高效且更具成本效益。

微软解释说,Phi-3 有不同的版本,最小的是 Phi-3 Mini,这是一个在 3.8 万亿个代币上训练的 3.3 亿个参数模型。尽管其规模相对较小,但 Llama-3 的语料库重量却超过 15万亿 数据令牌——Phi-3 Mini 仍然能够处理 128K 上下文令牌。这使得它可以与 GPT-4 相媲美,并在代币容量方面击败 Llama-3 和 Mistral Large。

换句话说,像 Meta.ai 上的 Llama-3 和 Mistral Large 这样的 AI 庞然大物可能会在长时间聊天后崩溃,或者在这个轻量级模型开始陷入困境之前出现提示。

Phi-3 Mini 最显着的优势之一是它能够安装在典型的智能手机上并在其上运行。微软在 iPhone 14 上测试了该模型,运行没有出现任何问题,每秒生成 14 个令牌。运行 Phi-3 Mini 仅需要 1.8GB VRAM,对于有更集中需求的用户来说,它是一个轻量级且高效的替代方案。

虽然 Phi-3 Mini 可能不太适合高端编码员或具有广泛要求的人,但它可以成为具有特定需求的用户的有效替代方案。例如,需要聊天机器人的初创公司或利用法学硕士进行数据分析的人员可以使用 Phi-3 Mini 来执行数据组织、提取信息、进行数学推理和构建代理等任务。如果该模型能够访问互联网,它就会变得非常强大,从而弥补其实时信息功能的不足。

由于 Microsoft 专注于使用尽可能最有用的信息来整理其数据集,Phi-3 Mini 获得了很高的测试分数。事实上,更广泛的 Phi 系列并不适合需要事实知识的任务,但高推理能力使它们高于主要竞争对手。 Phi-3 Medium(14 亿参数模型)始终击败 GPT-3.5 等强大的 LLM(为 ChatGPT 免费版本提供支持的 LLM),而 Mini 版本在大多数综合基准测试中击败了 Mixtral-8x7B 等强大的模型。

但值得注意的是,Phi-3 并不像其前身 Phi-2 那样开源。相反,它是一个 开放模型,这意味着它可以访问并可供使用,但它没有与 Phi-2 相同的开源许可,后者允许更广泛的使用和商业应用。

未来几周,微软表示将发布 Phi-3 系列的更多型号,包括 Phi-3 Small(7 亿个参数)和前面提到的 Phi-3 Medium。

Microsoft 已在 Azure AI Studio、Hugging Face 和 Ollama 上提供 Phi-3 Mini。该模型针对 ONNX 运行时进行了指令调整和优化,支持 Windows DirectML,以及跨不同 GPU、CPU 甚至移动硬件的跨平台支持。

随时了解加密新闻,在您的收件箱中获取每日更新。

现货图片

最新情报

现货图片

在线答疑

你好呀! 我怎么帮你?