微軟今天 聲稱 that it has released “the most capable and cost-effective small language models (SLMs) available,” saying Φ3—the third iteration of its Phi family of Small Language Models (SLMs)—outperforms comparably-sized models and a few larger ones.
小語言模型 (SLM) 是一種 AI 模型,旨在極為有效率地執行特定語言相關任務。與非常適合各種通用任務的大型語言模型 (LLM) 不同,SLM 會建構在較小的資料集上,使其對於特定用例更加高效且更具成本效益。
Phi-3 comes in different versions, Microsoft explained, with the smallest being Phi-3 Mini, a 3.8 billion parameter model trained on 3.3 trillion tokens. Despite its comparatively small size—Llama-3’s corpus weighs in over 15萬億 tokens of data—Phi-3 Mini is still capable of handling 128K tokens of context. This makes it comparable to GPT-4 and beats Llama-3 and Mistral Large in terms of token capacity.
換句話說,像 Meta.ai 上的 Llama-3 和 Mistral Large 這樣的 AI 龐然大物可能會在長時間聊天後崩潰,或者在這個輕量級模型開始陷入困境之前出現提示。
Phi-3 Mini 最顯著的優勢之一是它能夠安裝在典型的智慧型手機上並在其上運行。微軟在 iPhone 14 上測試了該模型,運行沒有出現任何問題,每秒產生 14 個代幣。運行 Phi-3 Mini 只需要 1.8GB VRAM,對於有更集中需求的用戶來說,它是一個輕量級且高效的替代方案。
雖然 Phi-3 Mini 可能不太適合高端編碼員或具有廣泛要求的人,但它可以成為具有特定需求的用戶的有效替代方案。例如,需要聊天機器人的新創公司或利用法學碩士進行資料分析的人員可以使用 Phi-3 Mini 來執行資料組織、提取資訊、進行數學推理和建立代理等任務。如果該模型能夠存取互聯網,它就會變得非常強大,從而彌補其實時資訊功能的不足。
由於 Microsoft 專注於使用盡可能最有用的信息來整理其資料集,Phi-3 Mini 獲得了很高的測試分數。事實上,更廣泛的 Phi 系列並不適合需要事實知識的任務,但高推理能力使它們高於主要競爭對手。 Phi-3 Medium(14 億參數模型)始終擊敗 GPT-3.5 等強大的 LLM(為 ChatGPT 免費版本提供支援的 LLM),而 Mini 版本在大多數綜合基準測試中擊敗了 Mixtral-8x7B 等強大的模型。
但值得注意的是,Phi-3 並不像其前身 Phi-2 那樣開源。相反,它是一個 開放模型,這意味著它可以存取並可供使用,但它沒有與 Phi-2 相同的開源許可,後者允許更廣泛的使用和商業應用。
未來幾週,微軟表示將發布 Phi-3 系列的更多型號,包括 Phi-3 Small(7 億個參數)和前面提到的 Phi-3 Medium。
Microsoft 已在 Azure AI Studio、Hugging Face 和 Ollama 上提供 Phi-3 Mini。該模型針對 ONNX 運行時進行了指令調整和最佳化,支援 Windows DirectML,以及跨不同 GPU、CPU 甚至行動硬體的跨平台支援。
- SEO 支持的內容和 PR 分發。 今天得到放大。
- PlatoData.Network 垂直生成人工智能。 賦予自己力量。 訪問這裡。
- 柏拉圖愛流。 Web3 智能。 知識放大。 訪問這裡。
- 柏拉圖ESG。 碳, 清潔科技, 能源, 環境, 太陽能, 廢物管理。 訪問這裡。
- 柏拉圖健康。 生物技術和臨床試驗情報。 訪問這裡。
- 資源: https://decrypt.co/227974/microsoft-phi-3-mini-small-ai-language-model