Generatywna analiza danych

Ten ultralekki model AI pasuje do Twojego telefonu i może pokonać ChatGPT – odszyfruj

Data:

Microsoft dzisiaj twierdził, że wypuściło „najbardziej wydajne i opłacalne modele małych języków (SLM) dostępne na rynku”, stwierdza Phi-3— trzecia iteracja Rodzina Phi małych modeli językowych (SLM) – przewyższa modele porównywalnych rozmiarów i kilka większych.

Model małego języka (SLM) to rodzaj modelu sztucznej inteligencji, który został zaprojektowany tak, aby był niezwykle skuteczny w wykonywaniu określonych zadań związanych z językiem. W przeciwieństwie do modeli wielkojęzycznych (LLM), które dobrze nadają się do szerokiego zakresu ogólnych zadań, modele SLM są zbudowane na mniejszym zestawie danych, co czyni je bardziej wydajnymi i opłacalnymi w określonych przypadkach użycia.

Microsoft wyjaśnił, że Phi-3 jest dostępny w różnych wersjach, z których najmniejszą jest Phi-3 Mini, model o 3.8 miliardach parametrów wytrenowany na 3.3 biliona tokenów. Pomimo stosunkowo niewielkich rozmiarów, korpus Lamy-3 waży ponad 15 bilionów tokeny danych — Phi-3 Mini nadal jest w stanie obsłużyć 128 tys. tokenów kontekstu. To sprawia, że ​​jest porównywalny z GPT-4 i pokonuje Llamę-3 i Mistral Large pod względem pojemności tokena.

Innymi słowy, giganty AI, takie jak Llama-3 na Meta.ai i Mistral Large, mogą upaść po długiej rozmowie lub podpowiedzieć na długo przed tym, jak ten lekki model zacznie mieć problemy.

Jedną z najważniejszych zalet Phi-3 Mini jest możliwość dopasowania i działania na typowym smartfonie. Microsoft przetestował ten model na iPhonie 14 i działał bez problemów, generując 14 tokenów na sekundę. Uruchomienie Phi-3 Mini wymaga tylko 1.8 GB pamięci VRAM, co czyni go lekką i wydajną alternatywą dla użytkowników o bardziej ukierunkowanych wymaganiach.

Chociaż Phi-3 Mini może nie być tak odpowiedni dla wysokiej klasy programistów lub osób o szerokich wymaganiach, może być skuteczną alternatywą dla użytkowników o specyficznych potrzebach. Na przykład start-upy potrzebujące chatbota lub osoby wykorzystujące LLM do analizy danych mogą używać Phi-3 Mini do zadań takich jak porządkowanie danych, wydobywanie informacji, wnioskowanie matematyczne i budowanie agentów. Jeśli model otrzyma dostęp do Internetu, może stać się całkiem potężny, rekompensując swój brak możliwości informacjami w czasie rzeczywistym.

Phi-3 Mini osiąga wysokie wyniki w testach dzięki skupieniu się firmy Microsoft na tworzeniu swojego zbioru danych za pomocą możliwie najbardziej przydatnych informacji. Szersza rodzina Phi w rzeczywistości nie nadaje się do zadań wymagających wiedzy opartej na faktach, ale wysokie umiejętności rozumowania stawiają ją nad głównymi konkurentami. Phi-3 Medium (model o parametrach 14 miliardów) konsekwentnie pokonuje potężne modele LLM, takie jak GPT-3.5 — LLM obsługujący bezpłatną wersję ChatGPT — a wersja Mini pokonuje potężne modele, takie jak Mixtral-8x7B, w większości syntetycznych testów porównawczych.

Warto jednak zauważyć, że Phi-3 nie jest oprogramowaniem typu open source, jak jego poprzednik, Phi-2. Zamiast tego jest to otwarty model, co oznacza, że ​​jest dostępny i możliwy do użycia, ale nie ma takiej samej licencji open source jak Phi-2, co pozwala na szersze wykorzystanie i zastosowania komercyjne.

Microsoft zapowiedział, że w nadchodzących tygodniach wypuści na rynek kolejne modele z rodziny Phi-3, w tym Phi-3 Small (7 miliardów parametrów) i wspomniany Phi-3 Medium.

Firma Microsoft udostępniła Phi-3 Mini w Azure AI Studio, Hugging Face i Ollama. Model jest dostosowany do instrukcji i zoptymalizowany pod kątem środowiska wykonawczego ONNX z obsługą Windows DirectML, a także obsługą wielu platform na różnych procesorach graficznych, procesorach, a nawet sprzęcie mobilnym.

Bądź na bieżąco z wiadomościami o kryptowalutach, otrzymuj codzienne aktualizacje w swojej skrzynce odbiorczej.

spot_img

Najnowsza inteligencja

spot_img

Czat z nami

Cześć! Jak mogę ci pomóc?