Inteligența generativă a datelor

Acest model AI ultra ușor se potrivește pe telefonul dvs. și poate învinge ChatGPT - Decriptare

Data:

Microsoft astăzi revendicat că a lansat „cele mai capabile și mai rentabile modele de limbi mici (SLM) disponibile”, spunând Phi-3- a treia iterație a acestuia Familia Phi de modele lingvistice mici (SLM) - depășește modelele de dimensiuni comparabile și câteva mai mari.

Un model de limbaj mic (SLM) este un tip de model AI care este conceput pentru a fi extrem de eficient în îndeplinirea unor sarcini specifice legate de limbaj. Spre deosebire de modelele de limbaj mari (LLM), care sunt potrivite pentru o gamă largă de sarcini generice, SLM-urile sunt construite pe un set de date mai mic pentru a le face mai eficiente și mai rentabile pentru cazuri de utilizare specifice.

Phi-3 vine în diferite versiuni, a explicat Microsoft, cea mai mică fiind Phi-3 Mini, un model cu parametri de 3.8 miliarde antrenat pe 3.3 trilioane de jetoane. În ciuda dimensiunilor sale relativ mici - corpus Llama-3 cântărește peste 15 trilioane jetoane de date — Phi-3 Mini este încă capabil să gestioneze 128 de jetoane de context. Acest lucru îl face comparabil cu GPT-4 și învinge Llama-3 și Mistral Large în ceea ce privește capacitatea de token.

Cu alte cuvinte, giganții AI precum Llama-3 de pe Meta.ai și Mistral Large s-ar putea prăbuși după o discuție lungă sau o solicitare cu mult înainte ca acest model ușor să înceapă să se lupte.

Unul dintre cele mai semnificative avantaje ale Phi-3 Mini este capacitatea sa de a se potrivi și de a rula pe un smartphone tipic. Microsoft a testat modelul pe un iPhone 14 și a funcționat fără probleme, generând 14 jetoane pe secundă. Rularea Phi-3 Mini necesită doar 1.8 GB de VRAM, ceea ce îl face o alternativă ușoară și eficientă pentru utilizatorii cu cerințe mai concentrate.

În timp ce Phi-3 Mini poate să nu fie la fel de potrivit pentru codificatorii de vârf sau persoanele cu cerințe largi, poate fi o alternativă eficientă pentru utilizatorii cu nevoi specifice. De exemplu, startup-urile care au nevoie de un chatbot sau persoanele care folosesc LLM-uri pentru analiza datelor pot folosi Phi-3 Mini pentru sarcini precum organizarea datelor, extragerea informațiilor, raționamentul matematic și construirea de agenți. Dacă modelului i se oferă acces la internet, acesta poate deveni destul de puternic, compensând lipsa de capabilități cu informații în timp real.

Phi-3 Mini obține scoruri ridicate la test datorită concentrării Microsoft pe curatarea setului de date cu cele mai utile informații posibile. Familia mai largă Phi, de fapt, nu este bună pentru sarcini care necesită cunoștințe concrete, dar abilități înalte de raționament îi poziționează deasupra concurenților majori. Phi-3 Medium (un model cu 14 miliarde de parametri) bate în mod constant LLM-uri puternice precum GPT-3.5 — LLM care alimentează versiunea gratuită a ChatGPT — iar versiunea Mini bate modele puternice precum Mixtral-8x7B în majoritatea benchmark-urilor sintetice.

Cu toate acestea, merită remarcat faptul că Phi-3 nu este open source ca predecesorul său, Phi-2. În schimb, este un model deschis, ceea ce înseamnă că este accesibil și disponibil pentru utilizare, dar nu are aceeași licență open source ca Phi-2, ceea ce permite o utilizare mai largă și aplicații comerciale.

În săptămânile următoare, Microsoft a declarat că va lansa mai multe modele din familia Phi-3, inclusiv Phi-3 Small (7 miliarde de parametri) și Phi-3 Medium menționat mai sus.

Microsoft a făcut Phi-3 Mini disponibil pe Azure AI Studio, Hugging Face și Ollama. Modelul este reglat cu instrucțiuni și optimizat pentru ONNX Runtime, cu suport pentru Windows DirectML, precum și suport multiplatform pe diferite GPU, CPU și chiar hardware mobil.

Fiți la curent cu știrile cripto, primiți actualizări zilnice în căsuța dvs. de e-mail.

spot_img

Ultimele informații

spot_img

Chat cu noi

Bună! Cu ce ​​​​vă pot ajuta?