ذكاء البيانات التوليدية

أصدرت Apple برنامج OpenELM، وهو برنامج LLM أكثر دقة قليلاً

التاريخ:

أصدرت شركة Apple، التي لا تُعرف عادةً بانفتاحها، نموذجًا توليديًا للذكاء الاصطناعي يسمى OpenELM والذي يبدو أنه يتفوق على مجموعة من نماذج اللغات الأخرى المدربة على مجموعات البيانات العامة.

إنه ليس كثيرًا – مقارنة بـ أولمو، والذي ظهر لأول مرة في فبراير، أوبينإلم أكثر دقة بنسبة 2.36 بالمائة أثناء استخدام عدد أقل من الرموز المميزة للتدريب المسبق بمقدار 2x. ولكن ربما يكون ذلك كافيًا لتذكير الناس بأن شركة Apple لم تعد راضية عن كونها زهرة المنثور في هذيان صناعة الذكاء الاصطناعي.

ويأتي ادعاء شركة أبل بالانفتاح من قرارها بإصدار ليس النموذج فحسب، بل إطار التدريب والتقييم الخاص بها.

"بالابتعاد عن الممارسات السابقة التي توفر فقط أوزان النماذج وكود الاستدلال والتدريب المسبق على مجموعات البيانات الخاصة، يتضمن إصدارنا الإطار الكامل للتدريب وتقييم نموذج اللغة على مجموعات البيانات المتاحة للجمهور، بما في ذلك سجلات التدريب ونقاط التفتيش المتعددة والبيانات المسبقة. -تكوينات التدريب،" يوضح أحد عشر باحثًا من شركة Apple في ذات الصلة ورقة تقنية.

وبعيدًا عن الممارسة الأكاديمية، لم يتم إدراج عناوين البريد الإلكتروني للمؤلفين. يرجع ذلك إلى تفسير شركة Apple للانفتاح، والذي يمكن مقارنته إلى حد ما بـ OpenAI غير المنفتح للغاية.

والمصاحبة نشر البرمجيات ليس ترخيصًا مفتوح المصدر معترفًا به. إنها ليست مقيدة بشكل غير ضروري، ولكنها توضح أن Apple تحتفظ بالحق في تقديم مطالبة ببراءة اختراع إذا كان أي عمل مشتق يعتمد على OpenELM يعتبر انتهاكًا لحقوقها.

يستخدم OpenELM تقنية تسمى قياس الطبقة لتخصيص المعلمات بشكل أكثر كفاءة في نموذج المحول. لذلك بدلاً من أن تحتوي كل طبقة على نفس مجموعة المعلمات، فإن طبقات محولات OpenELM لها تكوينات ومعلمات مختلفة. والنتيجة أفضل دقة، كما هو موضح في النسبة المئوية للتنبؤات الصحيحة من النموذج في الاختبارات المعيارية.

لقد قيل لنا أن OpenELM تم تدريبه مسبقًا باستخدام الأحمر بيجامة مجموعة بيانات من GitHub، وعدد كبير من الكتب، وWikipedia، ومنشورات StackExchange، وأبحاث ArXiv، والمزيد، دولما مجموعة من Reddit وWikibooks وProject Gutenberg والمزيد. يمكن استخدام النموذج كما قد تتوقع: تعطيه مطالبة، ويحاول الإجابة عليه أو إكماله تلقائيًا.

أحد الجوانب الجديرة بالملاحظة في الإصدار هو أنه مصحوب "برمز لتحويل النماذج إلى مكتبة MLX للاستدلال والضبط الدقيق على أجهزة Apple."

MLX هو إطار عمل تم إصداره العام الماضي لتشغيل التعلم الآلي على Apple Silicon. إن القدرة على العمل محليًا على أجهزة Apple، وليس عبر الشبكة، من شأنها أن تجعل OpenELM أكثر إثارة للاهتمام للمطورين.

وقال شاهار تشين، الرئيس التنفيذي والمؤسس المشارك لخدمة الذكاء الاصطناعي بيز أكوانت: "يمثل إصدار OpenELM من Apple تقدمًا كبيرًا لمجتمع الذكاء الاصطناعي، حيث يوفر معالجة فعالة للذكاء الاصطناعي على الجهاز مثالية لتطبيقات الهاتف المحمول وأجهزة إنترنت الأشياء ذات قوة الحوسبة المحدودة". السجل. "يتيح ذلك اتخاذ قرارات محلية سريعة وضرورية لكل شيء بدءًا من الهواتف الذكية وحتى الأجهزة المنزلية الذكية، مما يزيد من إمكانات الذكاء الاصطناعي في التكنولوجيا اليومية."

تحرص شركة Apple على إظهار مزايا بنية الرقائق المحلية الخاصة بها للتعلم الآلي، والمدعومة بشكل خاص في الأجهزة منذ أن قدمت كوبرتينو المحرك العصبي في عام 2017. ومع ذلك، فإن OpenELM، على الرغم من أنه قد يحقق درجات أعلى في معايير الدقة، إلا أنه لا يزال قصيرًا من حيث الأداء.

"على الرغم من دقة OpenELM العالية لعدد مماثل من المعلمات، نلاحظ أنه أبطأ من OLMo"، تشرح الورقة، مستشهدة بالاختبارات التي تم إجراؤها باستخدام CUDA من Nvidia على Linux بالإضافة إلى إصدار MLX من OpenELM على Apple Silicon.

السبب وراء العرض الأقل من المنتصر، كما يقول أنصار شركة أبل، هو "تنفيذهم الساذج لـ RMSNorm"، وهي تقنية لتطبيع البيانات في التعلم الآلي. وفي المستقبل، يخططون لاستكشاف المزيد من التحسينات.

يتوفر OpenELM في نماذج تم تدريبها مسبقًا وضبط التعليمات مع 270 مليونًا و450 مليونًا و1.1 مليار و3 مليار معلمة. ويتم تحذير أولئك الذين يستخدمونه من ممارسة العناية الواجبة قبل تجربة النموذج لأي شيء ذي معنى.

وتقول الورقة: "إن إصدار نماذج OpenELM يهدف إلى تمكين وإثراء مجتمع البحث المفتوح من خلال توفير الوصول إلى نماذج اللغة الحديثة". "بعد تدريبها على مجموعات البيانات المتاحة للجمهور، أصبحت هذه النماذج متاحة دون أي ضمانات للسلامة." ®

بقعة_صورة

أحدث المعلومات الاستخباراتية

بقعة_صورة

الدردشة معنا

أهلاً! كيف يمكنني مساعدك؟