امروز مایکروسافت ادعا کرد که که "تواناترین و مقرون به صرفه ترین مدل های زبان کوچک (SLM) موجود را منتشر کرده است." فی-3- سومین تکرار آن خانواده Phi از مدل های زبان کوچک (SLMs) - عملکرد بهتری از مدلهای با اندازهی مشابه و چند مدل بزرگتر دارد.
مدل زبان کوچک (SLM) نوعی مدل هوش مصنوعی است که برای انجام وظایف خاص مرتبط با زبان بسیار کارآمد طراحی شده است. برخلاف مدلهای زبان بزرگ (LLM) که برای طیف گستردهای از وظایف عمومی مناسب هستند، SLMها بر اساس مجموعه دادههای کوچکتری ساخته میشوند تا برای موارد استفاده خاص کارآمدتر و مقرون به صرفهتر شوند.
مایکروسافت توضیح داد که Phi-3 در نسخه های مختلفی ارائه می شود که کوچکترین آن Phi-3 Mini است، مدلی با 3.8 میلیارد پارامتر که بر روی 3.3 تریلیون توکن آموزش داده شده است. علیرغم اندازه نسبتاً کوچک آن، بدنه لاما-3 بیش از حد وزن دارد 15 تریلیون نشانه های داده — Phi-3 Mini هنوز هم قادر به مدیریت 128 هزار توکن از زمینه است. این باعث می شود که آن را با GPT-4 مقایسه کنیم و از نظر ظرفیت توکن، Llama-3 و Mistral Large را شکست دهد.
به عبارت دیگر، غولهای هوش مصنوعی مانند Llama-3 در Meta.ai و Mistral Large میتوانند پس از یک چت طولانی یا درخواست قبل از اینکه این مدل سبک وزن شروع به مبارزه کند، از بین بروند.
یکی از مهمترین مزایای Phi-3 Mini، قابلیت نصب و اجرا بر روی یک تلفن هوشمند معمولی است. مایکروسافت این مدل را روی آیفون 14 آزمایش کرد و بدون مشکل اجرا شد و 14 توکن در ثانیه تولید کرد. اجرای Phi-3 Mini تنها به 1.8 گیگابایت VRAM نیاز دارد، که آن را به یک جایگزین سبک وزن و کارآمد برای کاربرانی که نیازهای متمرکزتری دارند تبدیل می کند.
در حالی که Phi-3 Mini ممکن است برای کدنویسان سطح بالا یا افرادی با نیازهای گسترده مناسب نباشد، می تواند جایگزین موثری برای کاربران با نیازهای خاص باشد. به عنوان مثال، استارتآپهایی که به یک ربات چت یا افرادی که از LLM برای تجزیه و تحلیل دادهها استفاده میکنند، میتوانند از Phi-3 Mini برای کارهایی مانند سازماندهی داده، استخراج اطلاعات، انجام استدلالهای ریاضی و ساخت عوامل استفاده کنند. اگر به مدل دسترسی به اینترنت داده شود، می تواند بسیار قدرتمند شود و کمبود قابلیت های آن را با اطلاعات بلادرنگ جبران کند.
Phi-3 Mini به دلیل تمرکز مایکروسافت بر مدیریت مجموعه داده های خود با مفیدترین اطلاعات ممکن، نمرات بالایی در آزمون کسب می کند. خانواده گسترده تر Phi، در واقع، برای کارهایی که نیاز به دانش واقعی دارند خوب نیستند، اما مهارت های استدلال بالا آنها را بالاتر از رقبای اصلی قرار می دهد. Phi-3 Medium (یک مدل با پارامتر 14 میلیاردی) به طور مداوم LLM های قدرتمندی مانند GPT-3.5 - LLM که نسخه رایگان ChatGPT را تامین می کند - و نسخه Mini مدل های قدرتمندی مانند Mixtral-8x7B را در اکثر معیارهای مصنوعی شکست می دهد.
البته شایان ذکر است که Phi-3 مانند نسخه قبلی خود، Phi-2 منبع باز نیست. در عوض، آن است مدل باز، به این معنی که در دسترس است و برای استفاده در دسترس است، اما مجوز منبع باز مشابه Phi-2 را ندارد، که امکان استفاده گسترده تر و کاربردهای تجاری را فراهم می کند.
در هفتههای آینده، مایکروسافت اعلام کرد که مدلهای بیشتری از خانواده Phi-3 از جمله Phi-3 Small (7 میلیارد پارامتر) و Phi-3 Medium فوقالذکر را عرضه خواهد کرد.
مایکروسافت Phi-3 Mini را در استودیوی هوش مصنوعی Azure، Hugging Face و Ollama در دسترس قرار داده است. این مدل برای ONNX Runtime با پشتیبانی از DirectML ویندوز و همچنین پشتیبانی از پلتفرم های مختلف در پردازنده های گرافیکی مختلف، CPU و حتی سخت افزارهای تلفن همراه به صورت دستورالعمل تنظیم و بهینه شده است.
از اخبار ارزهای دیجیتال مطلع باشید، بهروزرسانیهای روزانه را در صندوق ورودی خود دریافت کنید.
- محتوای مبتنی بر SEO و توزیع روابط عمومی. امروز تقویت شوید.
- PlatoData.Network Vertical Generative Ai. به خودت قدرت بده دسترسی به اینجا.
- PlatoAiStream. هوش وب 3 دانش تقویت شده دسترسی به اینجا.
- PlatoESG. کربن ، CleanTech، انرژی، محیط، خورشیدی، مدیریت پسماند دسترسی به اینجا.
- PlatoHealth. هوش بیوتکنولوژی و آزمایشات بالینی. دسترسی به اینجا.
- منبع: https://decrypt.co/227974/microsoft-phi-3-mini-small-ai-language-model