Generativna podatkovna inteligenca

Ta ultra lahek model umetne inteligence se prilega vašemu telefonu in lahko premaga ChatGPT – dešifriranje

Datum:

Microsoft danes trdil, da je izdal "najbolj zmogljive in stroškovno učinkovite majhne jezikovne modele (SLM), ki so na voljo", pravi Phi-3— tretja ponovitev tega Družina majhnih jezikovnih modelov Phi (SLM)—prekaša modele primerljive velikosti in nekaj večjih.

Mali jezikovni model (SLM) je vrsta modela umetne inteligence, ki je zasnovan tako, da je izjemno učinkovit pri izvajanju specifičnih nalog, povezanih z jezikom. Za razliko od velikih jezikovnih modelov (LLM), ki so zelo primerni za širok nabor generičnih nalog, so SLM zgrajeni na manjšem naboru podatkov, da so učinkovitejši in stroškovno učinkovitejši za posebne primere uporabe.

Phi-3 je na voljo v različnih različicah, je pojasnil Microsoft, pri čemer je najmanjša Phi-3 Mini, model s 3.8 milijarde parametrov, ki je usposobljen na 3.3 bilijona žetonov. Kljub sorazmerno majhni velikosti je korpus Llame-3 težji 15 bilijona žetoni podatkov—Phi-3 Mini je še vedno zmožen obravnavati 128K žetonov konteksta. Zaradi tega je primerljiv z GPT-4 in premaga Llama-3 in Mistral Large v smislu zmogljivosti žetonov.

Z drugimi besedami, velikani AI, kot sta Llama-3 na Meta.ai in Mistral Large, bi lahko propadli po dolgem klepetu ali pozivu precej preden se ta lahki model začne boriti.

Ena najpomembnejših prednosti Phi-3 Mini je njegova zmožnost prileganja in delovanja na tipičnem pametnem telefonu. Microsoft je model preizkusil na iPhonu 14 in deloval je brez težav ter ustvaril 14 žetonov na sekundo. Zagon Phi-3 Mini zahteva samo 1.8 GB VRAM-a, zaradi česar je lahka in učinkovita alternativa za uporabnike z bolj osredotočenimi zahtevami.

Čeprav Phi-3 Mini morda ni tako primeren za vrhunske kodirnike ali ljudi s širokimi zahtevami, je lahko učinkovita alternativa za uporabnike s posebnimi potrebami. Na primer, startupi, ki potrebujejo klepetalnega robota, ali ljudje, ki uporabljajo LLM za analizo podatkov, lahko uporabljajo Phi-3 Mini za naloge, kot so organizacija podatkov, pridobivanje informacij, matematično sklepanje in izgradnja agentov. Če je modelu omogočen dostop do interneta, lahko postane precej zmogljiv in svoje pomanjkljive zmogljivosti nadomesti z informacijami v realnem času.

Phi-3 Mini dosega visoke testne rezultate zaradi Microsoftove osredotočenosti na urejanje svojega nabora podatkov z najbolj uporabnimi možnimi informacijami. Širša družina Phi dejansko ni dobra za naloge, ki zahtevajo poznavanje dejstev, vendar jih visoke sposobnosti sklepanja postavljajo pred glavne tekmece. Phi-3 Medium (model s 14 milijardami parametrov) dosledno premaga zmogljive LLM-je, kot je GPT-3.5 — LLM, ki poganja brezplačno različico ChatGPT-, različica Mini pa premaga zmogljive modele, kot je Mixtral-8x7B, v večini sintetičnih meril uspešnosti.

Vendar je treba omeniti, da Phi-3 ni odprtokoden kot njegov predhodnik Phi-2. Namesto tega je odprt model, kar pomeni, da je dostopen in na voljo za uporabo, vendar nima iste odprtokodne licence kot Phi-2, ki omogoča širšo uporabo in komercialne aplikacije.

V prihodnjih tednih je Microsoft dejal, da bo izdal več modelov v družini Phi-3, vključno z Phi-3 Small (7 milijard parametrov) in prej omenjenim Phi-3 Medium.

Microsoft je dal Phi-3 Mini na voljo v Azure AI Studio, Hugging Face in Ollama. Model je prilagojen navodilom in optimiziran za ONNX Runtime s podporo za Windows DirectML, kot tudi podporo za več platform v različnih GPU, CPU in celo mobilni strojni opremi.

Bodite na tekočem s kripto novicami, prejemajte dnevne posodobitve v svoj nabiralnik.

spot_img

Najnovejša inteligenca

spot_img

Klepetajte z nami

Zdravo! Kako vam lahko pomagam?