Generatív adatintelligencia

Ez az ultrakönnyű mesterséges intelligencia modell elfér a telefonján, és legyőzi a ChatGPT-t – Decrypt

Találka:

A Microsoft ma azt állította, hogy kiadta „a rendelkezésre álló legképességesebb és legköltséghatékonyabb kis nyelvi modelleket (SLM)” – mondta Phi-3– annak harmadik iterációja Phi kis nyelvi modellek családja (SLM-ek) – jobban teljesít, mint a hasonló méretű modellek és néhány nagyobb modell.

A Small Language Model (SLM) az AI-modell egy olyan típusa, amelyet úgy terveztek, hogy rendkívül hatékonyan hajtson végre bizonyos nyelvi feladatokat. Ellentétben a Large Language Models-ekkel (LLM), amelyek jól alkalmazhatók az általános feladatok széles skálájára, az SLM-ek kisebb adatkészletre épülnek, hogy hatékonyabbak és költséghatékonyabbak legyenek bizonyos felhasználási esetekben.

A Microsoft magyarázata szerint a Phi-3 különböző verziókban érkezik, a legkisebb a Phi-3 Mini, egy 3.8 milliárd paraméterű modell, amelyet 3.3 billió tokenre képeztek ki. Viszonylag kis mérete ellenére a Llama-3 korpusza többet nyom a latban 15 billió adattokenek – a Phi-3 Mini továbbra is képes 128 4 kontextus token kezelésére. Ezzel összehasonlítható a GPT-3-gyel, és a token-kapacitás tekintetében veri a Llama-XNUMX-at és a Mistral Large-ot.

Más szavakkal, a Meta.ai-n és a Mistral Large-on található Llama-3-hoz hasonló mesterséges intelligencia-behemótok hosszas csevegés után összeeshetnek, vagy jóval azelőtt figyelmeztetnek, hogy ez a könnyű modell elkezdene küzdeni.

A Phi-3 Mini egyik legjelentősebb előnye, hogy képes egy tipikus okostelefonhoz illeszkedni és futtatni. A Microsoft egy iPhone 14-en tesztelte a modellt, és probléma nélkül futott, másodpercenként 14 tokent generált. A Phi-3 Mini futtatásához mindössze 1.8 GB VRAM szükséges, így könnyű és hatékony alternatívát jelent a koncentráltabb igényű felhasználók számára.

Bár a Phi-3 Mini nem biztos, hogy olyan megfelelő a csúcskategóriás kódolóknak vagy a széleskörű követelményekkel rendelkező embereknek, hatékony alternatíva lehet a speciális igényekkel rendelkező felhasználók számára. Például azok az induló vállalkozások, amelyeknek csevegőbotra van szükségük, vagy az LLM-eket adatelemzéshez hasznosító emberek, használhatják a Phi-3 Minit olyan feladatokhoz, mint az adatszervezés, az információk kinyerése, a matematikai érvelés és az ügynökök létrehozása. Ha a modell internet-hozzáférést kap, akkor elég erős lehet, és valós idejű információkkal kompenzálja a képességek hiányát.

A Phi-3 Mini magas teszteredményeket ér el, mivel a Microsoft arra törekszik, hogy adatkészletét a lehető leghasznosabb információkkal kezelje. A tágabb Phi család valójában nem alkalmas tényismeretet igénylő feladatokra, de a magas érvelési készség a fő versenytársak fölé helyezi őket. A Phi-3 Medium (egy 14 milliárdos paraméteres modell) következetesen felülmúlja az olyan nagy teljesítményű LLM-eket, mint a GPT-3.5 – a ChatGPT ingyenes verzióját működtető LLM –, a Mini verzió pedig a szintetikus benchmarkok többségében legyőzi az olyan erős modelleket, mint a Mixtral-8x7B.

Érdemes azonban megjegyezni, hogy a Phi-3 nem nyílt forráskódú, mint elődje, a Phi-2. Ehelyett ez egy nyitott modell, azaz elérhető és használható, de nem rendelkezik ugyanazzal a nyílt forráskódú licenccel, mint a Phi-2, amely szélesebb körű felhasználást és kereskedelmi alkalmazásokat tesz lehetővé.

A következő hetekben a Microsoft bejelentette, hogy további modelleket ad ki a Phi-3 családból, köztük a Phi-3 Small-t (7 milliárd paraméter) és a már említett Phi-3 Mediumot.

A Microsoft elérhetővé tette a Phi-3 Minit az Azure AI Stúdióban, a Hugging Face-ben és az Ollamában. A modell utasításokra van hangolva és ONNX Runtime-ra optimalizálva, támogatja a Windows DirectML-t, valamint platformok közötti támogatást a különböző GPU-k, CPU-k és még mobil hardvereken is.

Maradjon naprakész a kriptográfiai hírekkel, és napi frissítéseket kaphat a postaládájában.

spot_img

Legújabb intelligencia

spot_img

Beszélj velünk

Szia! Miben segíthetek?