هوش داده های تولیدی

این مدل هوش مصنوعی فوق‌العاده سبک روی تلفن شما قرار می‌گیرد و می‌تواند ChatGPT را شکست دهد - رمزگشایی

تاریخ:

امروز مایکروسافت ادعا کرد که که "تواناترین و مقرون به صرفه ترین مدل های زبان کوچک (SLM) موجود را منتشر کرده است." فی-3- سومین تکرار آن خانواده Phi از مدل های زبان کوچک (SLMs) - عملکرد بهتری از مدل‌های با اندازه‌ی مشابه و چند مدل بزرگ‌تر دارد.

مدل زبان کوچک (SLM) نوعی مدل هوش مصنوعی است که برای انجام وظایف خاص مرتبط با زبان بسیار کارآمد طراحی شده است. برخلاف مدل‌های زبان بزرگ (LLM) که برای طیف گسترده‌ای از وظایف عمومی مناسب هستند، SLM‌ها بر اساس مجموعه داده‌های کوچک‌تری ساخته می‌شوند تا برای موارد استفاده خاص کارآمدتر و مقرون به صرفه‌تر شوند.

مایکروسافت توضیح داد که Phi-3 در نسخه های مختلفی ارائه می شود که کوچکترین آن Phi-3 Mini است، مدلی با 3.8 میلیارد پارامتر که بر روی 3.3 تریلیون توکن آموزش داده شده است. علیرغم اندازه نسبتاً کوچک آن، بدنه لاما-3 بیش از حد وزن دارد 15 تریلیون نشانه های داده — Phi-3 Mini هنوز هم قادر به مدیریت 128 هزار توکن از زمینه است. این باعث می شود که آن را با GPT-4 مقایسه کنیم و از نظر ظرفیت توکن، Llama-3 و Mistral Large را شکست دهد.

به عبارت دیگر، غول‌های هوش مصنوعی مانند Llama-3 در Meta.ai و Mistral Large می‌توانند پس از یک چت طولانی یا درخواست قبل از اینکه این مدل سبک وزن شروع به مبارزه کند، از بین بروند.

یکی از مهم‌ترین مزایای Phi-3 Mini، قابلیت نصب و اجرا بر روی یک تلفن هوشمند معمولی است. مایکروسافت این مدل را روی آیفون 14 آزمایش کرد و بدون مشکل اجرا شد و 14 توکن در ثانیه تولید کرد. اجرای Phi-3 Mini تنها به 1.8 گیگابایت VRAM نیاز دارد، که آن را به یک جایگزین سبک وزن و کارآمد برای کاربرانی که نیازهای متمرکزتری دارند تبدیل می کند.

در حالی که Phi-3 Mini ممکن است برای کدنویسان سطح بالا یا افرادی با نیازهای گسترده مناسب نباشد، می تواند جایگزین موثری برای کاربران با نیازهای خاص باشد. به عنوان مثال، استارت‌آپ‌هایی که به یک ربات چت یا افرادی که از LLM برای تجزیه و تحلیل داده‌ها استفاده می‌کنند، می‌توانند از Phi-3 Mini برای کارهایی مانند سازمان‌دهی داده، استخراج اطلاعات، انجام استدلال‌های ریاضی و ساخت عوامل استفاده کنند. اگر به مدل دسترسی به اینترنت داده شود، می تواند بسیار قدرتمند شود و کمبود قابلیت های آن را با اطلاعات بلادرنگ جبران کند.

Phi-3 Mini به دلیل تمرکز مایکروسافت بر مدیریت مجموعه داده های خود با مفیدترین اطلاعات ممکن، نمرات بالایی در آزمون کسب می کند. خانواده گسترده تر Phi، در واقع، برای کارهایی که نیاز به دانش واقعی دارند خوب نیستند، اما مهارت های استدلال بالا آنها را بالاتر از رقبای اصلی قرار می دهد. Phi-3 Medium (یک مدل با پارامتر 14 میلیاردی) به طور مداوم LLM های قدرتمندی مانند GPT-3.5 - LLM که نسخه رایگان ChatGPT را تامین می کند - و نسخه Mini مدل های قدرتمندی مانند Mixtral-8x7B را در اکثر معیارهای مصنوعی شکست می دهد.

البته شایان ذکر است که Phi-3 مانند نسخه قبلی خود، Phi-2 منبع باز نیست. در عوض، آن است مدل باز، به این معنی که در دسترس است و برای استفاده در دسترس است، اما مجوز منبع باز مشابه Phi-2 را ندارد، که امکان استفاده گسترده تر و کاربردهای تجاری را فراهم می کند.

در هفته‌های آینده، مایکروسافت اعلام کرد که مدل‌های بیشتری از خانواده Phi-3 از جمله Phi-3 Small (7 میلیارد پارامتر) و Phi-3 Medium فوق‌الذکر را عرضه خواهد کرد.

مایکروسافت Phi-3 Mini را در استودیوی هوش مصنوعی Azure، Hugging Face و Ollama در دسترس قرار داده است. این مدل برای ONNX Runtime با پشتیبانی از DirectML ویندوز و همچنین پشتیبانی از پلتفرم های مختلف در پردازنده های گرافیکی مختلف، CPU و حتی سخت افزارهای تلفن همراه به صورت دستورالعمل تنظیم و بهینه شده است.

از اخبار ارزهای دیجیتال مطلع باشید، به‌روزرسانی‌های روزانه را در صندوق ورودی خود دریافت کنید.

نقطه_img

جدیدترین اطلاعات

نقطه_img

چت با ما

سلام! چگونه می توانم به شما کمک کنم؟