生成數據智能

蘋果發布8種小型AI語言模型與微軟Phi-3競爭 - 解密

日期:

看到數量上的優勢,蘋果在競爭激烈的人工智慧市場中採取了策略舉措,推出了八種小型​​人工智慧模式。這些緊湊的工具統稱為 OpenELM,旨在在設備上和離線狀態下運行,非常適合智慧型手機。

發佈於開源AI社群 擁抱臉,模型提供 270 億、450 億、1.1 億和 3 億參數版本。使用者也可以下載 Apple 的 OpenELM 的預訓練版本或指令調整版本。

預先訓練的模型提供了一個基礎,使用者可以在此基礎上進行微調和開發。經過指令調整的模型已經被編程為回應指令,使它們更適合與最終用戶的對話和互動。

雖然蘋果尚未建議這些模型的具體用例,但它們可以用於運行可以解析電子郵件和文字的助手,或根據資料提供智慧建議。這是一種類似於 由Google拍攝,該公司在其 Pixel 智慧型手機系列上部署了 Gemini AI 模型。

這些模型是在公開可用的資料集上進行訓練的,Apple 正在共享 CoreNet(用於訓練 OpenELM 的庫)的程式碼及其模型的「配方」。換句話說,用戶可以檢查蘋果是如何建造它們的。

蘋果發售後不久 微軟發布 Phi-3,一系列能夠在本地運行的小語言模型。 Phi-3 Mini 是一個在3.8 兆個代幣上訓練的3.3 億個參數模型,仍然能夠處理128K 個上下文代幣,使其與GPT-4 相當,並在代幣容量方面擊敗了Llama-3和Mistral Large。

由於開源和輕量級,Phi-3 Mini 可能會在某些任務中取代蘋果Siri 或谷歌Gemini 等傳統助手,微軟已經在iPhone 上測試了Phi-3,並報告了令人滿意的結果和快速代幣生成。

雖然蘋果尚未將這些新的 AI 語言模型功能整合到其消費性裝置中,但即將推出的 iOS 18 更新 傳聞 包括使用設備上處理來確保用戶隱私的新人工智慧功能。 

Apple 硬體在本地 AI 使用方面具有優勢,因為它將裝置 RAM 與 GPU 視訊 RAM(或 VRAM)結合在一起。這意味著具有 32 GB RAM(PC 中的常見配置)的 Mac 可以像使用 GPU VRAM 一樣利用該 RAM 來運行 AI 模型。透過對比, Windows 設備 被削弱了 透過單獨的裝置 RAM 和 GPU VRAM。使用者通常需要購買強大的 32GB GPU 來增強 RAM 來運行 AI 模型。

然而,蘋果在人工智慧開發領域落後於Windows/Linux。大多數人工智慧應用程式都圍繞著英偉達設計和製造的硬件,蘋果為了支援自己的晶片而逐步淘汰了英偉達。這意味著蘋果原生的人工智慧開發相對較少,因此,在蘋果產品上使用人工智慧需要翻譯層或其他複雜的程式。

隨時了解加密新聞,在您的收件箱中獲取每日更新。

現貨圖片

最新情報

現貨圖片

和我們線上諮詢

你好呀!我怎麼幫你?