Generatywna analiza danych

Apple wypuszcza 8 małych modeli języków AI, które mają konkurować z Phi-3 firmy Microsoft – odszyfruj

Data:

Widząc siłę w liczbach, Apple wykonał strategiczny ruch na konkurencyjnym rynku sztucznej inteligencji, udostępniając osiem małych modeli sztucznej inteligencji. Te kompaktowe narzędzia, zwane łącznie OpenELM, zostały zaprojektowane do działania na urządzeniach i w trybie offline — idealne dla smartfonów.

Opublikowano w społeczności AI typu open source Przytulanie Twarzymodele oferowane są w wersjach o parametrach 270 milionów, 450 milionów, 1.1 miliarda i 3 miliardy. Użytkownicy mogą także pobrać oprogramowanie OpenELM firmy Apple w wersji wstępnie przeszkolonej lub dostosowanej do instrukcji.

Wstępnie przeszkolone modele stanowią podstawę, na której użytkownicy mogą dostrajać i rozwijać. Modele dostosowane do instrukcji są już zaprogramowane tak, aby reagować na instrukcje, dzięki czemu są bardziej odpowiednie do rozmów i interakcji z użytkownikami końcowymi.

Chociaż Apple nie zasugerował konkretnych przypadków użycia tych modeli, można je zastosować do uruchomienia asystentów, którzy analizują e-maile i SMS-y lub dostarczają inteligentnych sugestii na podstawie danych. Jest to podejście podobne do jednego podjęte przez Google, która wdrożyła model Gemini AI w swojej ofercie smartfonów Pixel.

Modele zostały wyszkolone na publicznie dostępnych zbiorach danych, a Apple udostępnia zarówno kod CoreNet (biblioteki używanej do uczenia OpenELM), jak i „przepisy” na swoje modele. Innymi słowy, użytkownicy mogą sprawdzić, jak Apple je zbudował.

Niedługo potem pojawia się premiera Apple Microsoft ogłosił Phi-3, rodzina małych modeli językowych, które mogą działać lokalnie. Phi-3 Mini, model o 3.8 miliardach parametrów wytrenowany na 3.3 biliona tokenów, nadal jest w stanie obsłużyć 128 tys. tokenów kontekstu, co czyni go porównywalnym z GPT-4 i pokonuje Llama-3 i Mistral Large pod względem pojemności tokenów.

Będąc otwartym kodem źródłowym i lekkim, Phi-3 Mini może potencjalnie zastąpić w niektórych zadaniach tradycyjnych asystentów, takich jak Siri firmy Apple lub Gemini firmy Google, a Microsoft przetestował już Phi-3 na iPhonie i zgłosił zadowalające wyniki oraz szybkie generowanie tokenów.

Chociaż Apple nie zintegrowało jeszcze tych nowych możliwości modelu języka AI ze swoimi urządzeniami konsumenckimi, nadchodząca aktualizacja iOS 18 już to uczyni plotki uwzględnić nowe funkcje sztucznej inteligencji, które wykorzystują przetwarzanie na urządzeniu w celu zapewnienia prywatności użytkownika. 

Sprzęt Apple ma przewagę w lokalnym wykorzystaniu sztucznej inteligencji, ponieważ łączy pamięć RAM urządzenia z pamięcią wideo GPU (lub VRAM). Oznacza to, że komputer Mac z 32 GB pamięci RAM (typowa konfiguracja w komputerze PC) może wykorzystywać tę pamięć RAM tak samo, jak pamięć VRAM procesora graficznego do uruchamiania modeli AI. W porównaniu, Urządzenia z systemem Windows są sparaliżowane przez oddzielną pamięć RAM urządzenia i pamięć VRAM procesora graficznego. Użytkownicy często muszą zakupić wydajny procesor graficzny o pojemności 32 GB, aby zwiększyć pamięć RAM w celu uruchamiania modeli AI.

Jednak Apple pozostaje w tyle za Windowsem/Linuxem w obszarze rozwoju sztucznej inteligencji. Większość aplikacji AI opiera się na sprzęcie zaprojektowanym i zbudowanym przez firmę Nvidia, który Apple wycofał na rzecz obsługi własnych chipów. Oznacza to, że stosunkowo niewiele jest rozwiązań AI natywnych dla Apple, w związku z czym używanie sztucznej inteligencji w produktach Apple wymaga warstw translacyjnych lub innych skomplikowanych procedur.

Bądź na bieżąco z wiadomościami o kryptowalutach, otrzymuj codzienne aktualizacje w swojej skrzynce odbiorczej.

spot_img

Najnowsza inteligencja

spot_img