امروز، ما هیجان زده هستیم که اعلام کنیم که جما این مدل اکنون برای مشتریانی که استفاده می کنند در دسترس است Amazon SageMaker JumpStart. جما یک خانواده است مدل های زبان بر اساس مدلهای جمینی گوگل که بر روی ۶ تریلیون توکن متن آموزش دیده است. خانواده Gemma از دو اندازه تشکیل شده است: مدل 6 میلیارد پارامتر و مدل 7 میلیارد پارامتر. اکنون میتوانید از مدلهای از پیش آموزشدیده و تنظیمشده Gemma 2B و Gemma 2B در داخل استفاده کنید. SageMaker JumpStart. JumpStart مرکز یادگیری ماشینی (ML) SageMaker است که علاوه بر الگوریتمهای داخلی و الگوهای راهحل انتها به انتها، به مدلهای پایه دسترسی دارد تا به شما کمک کند تا به سرعت با ML شروع کنید.
در این پست، نحوه استقرار مدل Gemma و تنظیم دقیق آن را برای موارد استفاده شما در SageMaker JumpStart توضیح می دهیم. نوت بوک کامل در دسترس است GitHub.
مدل جما
جما یک خانواده سبک وزن و پیشرفته است مدل ساخته شده از همان تحقیقات و فناوری مورد استفاده برای ایجاد برج جوزا مدل ها. Gemma که توسط Google DeepMind و سایر تیمها در سراسر Google توسعه یافته است، از Gemini الهام گرفته شده است. Gemma قابلیتهای عمومی قوی در حوزههای متنی و مهارتهای پیشرفته درک و استدلال در مقیاس را نشان میدهد. عملکرد بهتری در مقایسه با سایر مدلهای در دسترس عموم در مقیاسهای مشابه یا بزرگتر در حوزههای مختلف، از جمله پاسخگویی به سؤال، استدلال عقلانی، ریاضیات و علوم، و کدنویسی به دست میآورد. جما وزن های مدل را برای حمایت از نوآوری توسعه دهندگان با استفاده از مدل های جما منتشر کرد. Gemma با یک محصول جدید راه اندازی شد جعبه ابزار هوش مصنوعی مولد مسئول که راهنمایی و ابزارهای ضروری را برای ایجاد برنامه های کاربردی هوش مصنوعی ایمن تر با Gemma فراهم می کند.
مدل های پایه در SageMaker
JumpStart دسترسی به طیف وسیعی از مدلها را از هابهای مدل محبوب از جمله Hugging Face، PyTorch Hub، و TensorFlow Hub فراهم میکند، که میتوانید در گردش کار توسعه ML خود در SageMaker استفاده کنید. پیشرفتهای اخیر در ML منجر به پیدایش دسته جدیدی از مدلها شده است که به آنها میگویند مدل های پایه، که معمولاً بر روی میلیاردها پارامتر آموزش داده می شوند و با دسته بندی گسترده ای از موارد استفاده مانند خلاصه سازی متن، تولید هنر دیجیتال و ترجمه زبان سازگار هستند. از آنجایی که آموزش این مدلها گران است، مشتریان میخواهند به جای آموزش این مدلها، از مدلهای پایه از پیش آموزشدیده موجود استفاده کنند و در صورت نیاز آنها را تنظیم کنند. SageMaker لیستی از مدلهایی را ارائه میکند که میتوانید از میان آنها در کنسول SageMaker انتخاب کنید.
اکنون میتوانید مدلهای پایه را از ارائهدهندگان مدلهای مختلف در JumpStart پیدا کنید، که به شما امکان میدهد به سرعت با مدلهای فونداسیون شروع کنید. می توانید مدل های پایه را بر اساس وظایف مختلف یا ارائه دهندگان مدل پیدا کنید و ویژگی های مدل و شرایط استفاده را بررسی کنید. همچنین می توانید این مدل ها را با استفاده از ویجت UI آزمایشی امتحان کنید. هنگامی که می خواهید از یک مدل پایه در مقیاس استفاده کنید، می توانید این کار را بدون ترک SageMaker با استفاده از نوت بوک های از پیش ساخته شده از ارائه دهندگان مدل انجام دهید. از آنجایی که مدلها در AWS میزبانی و مستقر میشوند، دادههای شما، چه برای ارزیابی مدل استفاده شود و چه در مقیاس، هرگز با اشخاص ثالث به اشتراک گذاشته نمیشود.
بیایید بررسی کنیم که چگونه می توانید از مدل Llama Guard در JumpStart استفاده کنید.
مدل Gemma را در Jumpstart کاوش کنید
میتوانید از طریق SageMaker JumpStart در SageMaker Studio UI و SageMaker Python SDK به مدلهای بنیاد Gemma دسترسی پیدا کنید. در این بخش به نحوه کشف مدل ها در SageMaker Studio می پردازیم.
SageMaker Studio یک محیط توسعه یکپارچه (IDE) است که یک رابط بصری مبتنی بر وب را فراهم می کند که در آن می توانید به ابزارهای ساخته شده برای انجام تمام مراحل توسعه ML، از آماده سازی داده ها تا ساخت، آموزش، و استقرار مدل های ML خود دسترسی داشته باشید. برای جزئیات بیشتر در مورد نحوه شروع و راه اندازی SageMaker Studio، مراجعه کنید Amazon SageMaker Studio.
در کنسول مدیریت AWS برای SageMaker Studio، به SageMaker JumpStart زیر بروید راه حل های از پیش ساخته شده و خودکار. جامپ استارت شامل مدل های از پیش آموزش دیده، نوت بوک ها و راه حل های از پیش ساخته شده است.
در صفحه فرود SageMaker JumpStart، می توانید مدل Gemma را با جستجوی Gemma بیابید.
سپس می توانید از انواع مدل های Gemma، از جمله Gemma 2B، Gemma 7B، Gemma 2B instruct، و Gemma 7B instruct، انتخاب کنید.
کارت مدل را برای مشاهده جزئیات مدل مانند مجوز، دادههای مورد استفاده برای آموزش و نحوه استفاده از مدل انتخاب کنید. شما همچنین یک را پیدا خواهید کرد گسترش دکمه، که شما را به صفحه فرود می برد که در آن می توانید استنتاج را با یک بار نمونه آزمایش کنید.
Gemma را با SageMaker Python SDK اجرا کنید
می توانید کدی را که استقرار Gemma را در JumpStart نشان می دهد و نمونه ای از نحوه استفاده از مدل مستقر شده را در این نوت بوک GitHub
با انتخاب شناسه مدل SageMaker Model Hub و نسخه مدل برای استفاده در هنگام استقرار Gemma شروع کنید.
یک شناسه مدل را از جدول زیر انتخاب کنید، که جزئیات تنظیمات پیشفرض برای استقرار JumpStart را نشان میدهد. به دلیل حجم وسیع واژگان 256 هزار توکن، Gemma 7B تنها میتواند روی یک واحد پردازش گرافیکی A10G در صورت پشتیبانی از طول زمینه 1 قرار گیرد. به همین دلیل، JumpStart از یک نمونه پیش فرض بزرگتر برای Gemma 7B استفاده می کند.
شناسه مدل | نمونه استنتاج پیش فرض | درجه موازی تانسور | طول زمینه پشتیبانی شده |
huggingface-llm-gemma-2b | ml.g5.xlarge | 1 | 8k |
huggingface-llm-gemma-2b-instruct | ml.g5.xlarge | 1 | 8k |
huggingface-llm-gemma-7b | ml.g5.12xlarge | 4 | 8k |
huggingface-llm-gemma-7b-instruct | ml.g5.12xlarge | 4 | 8k |
اکنون می توانید مدل را با استفاده از SageMaker JumpStart اجرا کنید. کد زیر از نمونه پیش فرض استفاده می کند ml.g5.12xlarge
برای نقطه پایانی استنتاج شما می توانید مدل را بر روی انواع نمونه های دیگر با پاس دادن مستقر کنید instance_type
در JumpStartModel
کلاس استقرار ممکن است 5-10 دقیقه طول بکشد.
برای استقرار موفقیت آمیز، باید به صورت دستی تغییر دهید accept_eula
آرگومان در روش استقرار مدل به True
. این مدل با استفاده از محفظه یادگیری عمیق تولید متن (TGI) مستقر شده است.
فراخوانی نقطه پایانی
شما می توانید به صورت برنامه ریزی شده بارهای نمونه را از قسمت بازیابی کنید JumpStartModel
هدف - شی. این به شما کمک می کند تا با مشاهده دستورات از پیش قالب بندی شده ای که Gemma می تواند دریافت کند، شروع به کار کنید.
قبل از اینکه به دستورات خاص نگاه کنیم، بیایید الگوی چت مدلهای Gemma Instruct را در نظر بگیریم.
در اینجا، درخواست خود را در قسمت قرار می دهید [USER_PROMPT]
محل. هیچ پشتیبانی برای دستورالعمل سیستم وجود ندارد. در عوض، می توانید دستورالعمل مورد نظر را به درخواست کاربر اضافه کنید. علاوه بر این، اگر مکالمه چند نوبتی دارید، در صورت نیاز، درخواست مدل میتواند بین کاربر و دستیار متناوب شود.
اکنون چند دستور دستور را در نظر بگیرید. در اینجا، از جما می خواهید که یک برنامه Hello World بنویسد.
خروجی مورد انتظار زیر است:
بعد، جما را برای کار خلاقانه نوشتن یک شعر فراخوانی کنید.
خروجی زیر است:
این خیلی خوب به نظر می رسد!
اکنون، بیایید به معیارهای عملکرد تأخیر و توان عملیاتی برای ارائه مدل با پیکربندی پیشفرض استقرار JumpStart نگاه کنیم. در اینجا، نشان میدهیم که چگونه عملکرد مدل ممکن است برای بار کاری نقطه پایانی معمولی شما متفاوت باشد. در جداول زیر مشاهده می کنید که پرس و جوهای کوچک (256 کلمه ورودی و 256 نشانه خروجی) در تعداد زیادی از کاربران همزمان کاملاً کارآمد هستند و به توان عملیاتی توکن در حدود هزار تا دو هزار توکن در ثانیه می رسند. با این حال، با نزدیک شدن تعداد کلمات ورودی به حداکثر طول زمینه پشتیبانی شده Gemma که هشت هزار توکن است، نقطه پایانی ظرفیت بچینگ آن - تعداد درخواستهای همزمان مجاز به پردازش همزمان - را به دلیل محدودیتهای محدود به حافظه نمونه اشباع میکند.
برای اطلاعات بیشتر در مورد نحوه در نظر گرفتن این اطلاعات و تنظیم تنظیمات استقرار برای مورد استفاده خاص خود، ببینید معیار و بهینه سازی استقرار نقطه پایانی در Amazon SageMaker JumpStart.
. | توان عملیاتی (توکن/ها) | ||||||||||
کاربران همزمان | 1 | 2 | 4 | 8 | 16 | 32 | 64 | 128 | |||
مدل | نوع نمونه | کلمات ورودی | توکن های خروجی | . | . | . | . | . | . | . | . |
gemma-2b-instruct | ml.g5.xlarge | 256 | 256 | 73 | 137 | 262 | 486 | 829 | 1330 | 1849 | 1834 |
2048 | 256 | 69 | 126 | 227 | 373 | 537 | 704 | 764 | - | ||
7936 | 256 | 60 | 100 | 147 | 195 | 226 | 230 | - | - | ||
gemma-7b-instruct | ml.g5.12xlarge | 256 | 256 | 62 | 119 | 227 | 413 | 601 | 811 | 937 | 962 |
2048 | 256 | 56 | 100 | 172 | 245 | 267 | 273 | - | - | ||
7936 | 256 | 44 | 67 | 77 | 77 | 78 | - | - | - |
. | تأخیر P50 (ms/token) | ||||||||||
کاربران همزمان | 1 | 2 | 4 | 8 | 16 | 32 | 64 | 128 | |||
مدل | نوع نمونه | کلمات ورودی | توکن های خروجی | . | . | . | . | . | . | . | . |
gemma-2b-instruct | ml.g5.xlarge | 256 | 256 | 13 | 14 | 15 | 16 | 19 | 23 | 33 | 49 |
2048 | 256 | 14 | 15 | 17 | 20 | 28 | 43 | 79 | - | ||
7936 | 256 | 16 | 19 | 26 | 39 | 68 | 136 | - | - | ||
Gemma-7b-instruct | ml.g5.12xlarge | 256 | 256 | 16 | 16 | 17 | 19 | 26 | 38 | 57 | 110 |
2048 | 256 | 17 | 19 | 23 | 32 | 52 | 119 | - | - | ||
7936 | 256 | 22 | 29 | 45 | 105 | 197 | - | - | - |
Gemma را با استفاده از SageMaker Python SDK تنظیم دقیق کنید
در مرحله بعد، ما به شما نشان می دهیم که چگونه مدل دستور Gemma 7B را روی یک مجموعه داده با فرمت مکالمه با استفاده از QLoRA تکنیک. همانطور که قبلا ذکر شد، با توجه به حجم واژگان بزرگ 256 هزار و طول زمینه 8 هزار، JumpStart تنظیمات پیش فرض زیر را برای تنظیم دقیق QLoRA ارائه می دهد.
شناسه مدل | نمونه آموزش پیش فرض | حداکثر طول دنباله ورودی | اندازه دسته آموزشی در هر دستگاه | مراحل انباشت گرادیان |
huggingface-llm-gemma-2b | ml.g5.2xlarge | 1024 | 1 | 4 |
huggingface-llm-gemma-2b-instruct | ml.g5.2xlarge | 1024 | 1 | 4 |
huggingface-llm-gemma-7b | ml.g5.12xlarge | 2048 | 1 | 4 |
huggingface-llm-gemma-7b-instruct | ml.g5.12xlarge | 2048 | 1 | 4 |
بیایید مجموعه داده را در قالب مکالمه بارگذاری و پردازش کنیم. مجموعه داده نمونه برای این نمایش است موضوعات گفتگوی TOP-1 OpenAssistant.
داده های آموزشی باید در خطوط JSON فرموله شوند (.jsonl
) قالب، که در آن هر خط یک فرهنگ لغت است که مجموعه ای از مکالمات را نشان می دهد. یک مثال در فایل خطوط JSON در زیر نشان داده شده است. برای جزئیات در مورد نحوه پردازش مجموعه داده، به دفترچه یادداشت در مراجعه کنید GitHub.
در زیر اسکریپت های آموزشی، JumpStart از HuggingFace استفاده می کند SFTTrainer با QLoRA و فلش توجه. Flash Attention کارایی مقیاسبندی را ممکن میکند و منجر به آموزش و استنتاج سریعتر میشود. علاوه بر تنظیم دقیق مبتنی بر چت، JumpStart همچنین از تنظیم دقیق دستورالعمل و تطبیق دامنه با QLoRA پشتیبانی می کند. برای جزئیات، به دفترچه یادداشت در مراجعه کنید GitHub.
پس از تنظیم دقیق، می توانید مدل تنظیم شده را در یک نقطه پایانی SageMaker مستقر کنید.
میتوانید انتخاب کنید که مدل تنظیمشده دقیق روی دادههای مکالمه در نقطه پایانی SageMaker با استقرار یابد ویژگی HuggingFace messages API به عنوان یک رویکرد جایگزین مزیت استفاده از ویژگی Message API این است که به کاربران اجازه می دهد تا نمونه های پرس و جو را همانطور که در جدول زیر نشان داده شده است به صورت خام ارسال کنند و chat_template در نقطه پایانی، نمونه های پرس و جو را قبل از ارسال به مدل به فرمت مناسب تبدیل می کند. برای جزئیات، بخش استقرار را پس از تنظیم دقیق در قسمت مشاهده کنید دفتر یادداشت.
پس از استقرار مدل تنظیمشده در نقطه پایانی، میتوانید پاسخهای خروجی را از مدلهای Gemma از پیش آموزشدیده و تنظیمشده دقیق مقایسه کنید. مثالها از دادههای آزمایشی جمعآوری میشوند، که مجموعهای از دادههای آموزشی است. پارامترهای استنتاج هستند max_tokens
به عنوان 512، top_p
به عنوان 0.9، temperature
به عنوان 0.4، و top_k
به عنوان 50.
همانطور که با نتایج تنظیم دقیق می بینید، پاسخ های عامل دقیق تر هستند.
برای ارزیابی بیشتر مدل های تنظیم شده خود، می توانید کاوش کنید ارزیابی FM با Amazon SageMaker Clarify برای مشاهده عملکرد مدل تنظیم شده شما در مقایسه با مدل پایه.
ورودی ها | حقیقت زمینی | پاسخ از پایه مدل | پاسخ از مدل دقیق تنظیم شده | |
1 |
کاربر: من میخواهم روی دایره لغاتم کار کنم، آیا میتوانید راههای سادهای به من بدهید که بتوانم کلمات جدیدی پیدا کنم تا تنوع جملاتم را افزایش دهم؟ دستیار: حتما! بهبود دایره لغات شما یک فرآیند مداوم است، اما در اینجا چند راه ساده برای یافتن کلمات جدید و افزایش تنوع جملات شما وجود دارد: 1. به طور گسترده بخوانید: خواندن کتاب ها، مقالات و وبلاگ ها از ژانرها و موضوعات مختلف شما را در معرض کلمات و عبارات جدید قرار می دهد. هر کلمه ناآشنا را که با آن مواجه می شوید یادداشت کنید و معانی آنها را جستجو کنید. 2. از اصطلاحنامه استفاده کنید: هر زمان که می نویسید یا می خوانید، از اصطلاحنامه برای یافتن مترادف کلمات رایج استفاده کنید. این نه تنها به یادگیری لغات جدید کمک میکند، بلکه درک شما را از تفاوتهای ظریف آنها در معنی افزایش میدهد. 3. تقویمها یا برنامههای روزانه: در یک ایمیل روزانه مشترک شوید یا یک برنامه ساخت واژگان را دانلود کنید. این ابزارها هر روز یک کلمه جدید به همراه معنی، تلفظ و مثال های کاربرد آن را به شما معرفی می کنند. 4. به یک باشگاه کتاب یا گروه بحث بپیوندید: شرکت در گفتگو و بحث درباره کتاب ها، مقاله ها یا هر موضوع دیگری شما را در معرض دیدگاه های مختلف و واژگان جدید قرار می دهد. با دقت به دیگران گوش دهید و سعی کنید از کلمات جدید در زمینه استفاده کنید. 5. بازی های کلماتی را انجام دهید: بازی هایی مانند Scrabble، Boggle، و جدول کلمات متقاطع، مهارت های واژگان شما را به چالش می کشند و به شما کمک می کنند کلمات جدید را به شیوه ای لذت بخش یاد بگیرید. 6. تماشای فیلمها، برنامههای تلویزیونی یا مستند: رسانههای تصویری اغلب از زبانها، اصطلاحات عامیانه و اصطلاحات مختلف استفاده میکنند. تماشای فیلمها، برنامههای تلویزیونی یا فیلمهای مستند با زیرنویس میتواند به شما در درک بهتر و به خاطر سپردن کلمات جدید کمک کند. 7. نوشتن را تمرین کنید: نوشتن منظم داستان، مقاله یا نوشته های مجله شما را تشویق می کند که از کلمات و عبارات جدید استفاده کنید. برای گسترش دایره لغات خود، سبک ها و ژانرهای مختلف نوشتاری را آزمایش کنید. 8. ریشه شناسی یک کلمه جدید را بیاموزید: درک اصل و تاریخچه یک کلمه می تواند به خاطر سپردن و استفاده صحیح آن را آسان تر کند. تحقیق در مورد ریشه شناسی نیز شما را در معرض کلمات و مفاهیم مرتبط قرار می دهد. 9. از فلش کارت ها یا نرم افزارهای تکرار فاصله دار استفاده کنید: فلش کارت هایی با کلمات جدید، معانی آنها و جملات مثال ایجاد کنید. آنها را به طور منظم مرور کنید یا از نرم افزارهای تکرار فاصله دار مانند Anki برای بهینه سازی یادگیری خود استفاده کنید. 10. اهداف شخصی تعیین کنید: اهداف قابل دستیابی را تعیین کنید، مانند یادگیری پنج کلمه جدید در هفته. پیشرفت خود را پیگیری کنید و برای رسیدن به اهداف خود به خود پاداش دهید. با گنجاندن مداوم این استراتژی ها در برنامه روزانه خود، به تدریج واژگانی متنوع و قوی خواهید ساخت. کاربر: هوم، من ایده خواندن را خیلی دوست دارم. آیا می توانید یک تریلر علمی-تخیلی جالب را به من پیشنهاد کنید که بتوانم آن را بخوانم؟ |
دستیار: حتما! در اینجا چند توصیه برای تریلرهای علمی تخیلی وجود دارد که ممکن است از آنها لذت ببرید: 1. "مشکل سه بدن" نوشته لیو سیکسین - این رمان برنده جایزه اولین تماس بین بشریت و تمدن بیگانه و پیامدهای سیاسی و شخصی ناشی از آن را بررسی می کند. این یک مطالعه گیرا و قابل تامل است که به سؤالات عمیق در مورد ماهیت هستی و جهان می پردازد. 2. «نابودی» نوشته جف واندرمیر – این رمان گروهی از دانشمندان را دنبال میکند که در منطقهای مرموز به نام «منطقه X» میروند، جایی که با پدیدههای عجیب و ناراحتکننده مواجه میشوند. با کاوش عمیق تر در منطقه، شروع به کشف رازهای تاریک در مورد ماهیت واقعیت و دنیای اطراف خود می کنند. 3. «ماده تاریک» اثر بلیک کراچ - این رمان درباره فیزیکدانی باهوش به نام جیسون دسن است که ربوده شده و به یک جهان موازی منتقل میشود. همانطور که او تلاش می کند راه بازگشت به واقعیت خود را بیابد، باید با انتخاب های خود و پیامدهای اعمالش مقابله کند. 4. «فشار آندرومدا» نوشته مایکل کرایتون - این رمان کلاسیک گروهی از دانشمندان را دنبال میکند که سعی میکنند میکروب فرازمینی مرگباری را که روی زمین فرود آمده است را مهار و مطالعه کنند. همانطور که آنها با زمان رقابت می کنند تا راهی برای خنثی کردن میکروب بیابند، باید با دسیسه های سیاسی و درگیری های شخصی نیز مبارزه کنند. 5. "بازیکن یک آماده" اثر ارنست کلاین - این رمان در آینده ای دیستوپیایی می گذرد که اکثریت مردم وقت خود را در دنیای واقعیت مجازی به نام OASIS می گذرانند. هنگامی که خالق OASIS می میرد و چالشی را برای یافتن یک تخم مرغ پنهان برای عید پاک پشت سر می گذارد، یک قهرمان جوان وارد یک تلاش هیجان انگیز می شود که زندگی او را برای همیشه تغییر می دهد. امیدوارم یکی از این توصیه ها علاقه شما را جلب کند! |
دستیار: متن حاوی اطلاعاتی درباره ترجیحات یا علایق خواندن شما نیست، بنابراین نمی توانم توصیه کتاب ارائه کنم. |
دستیار: مطمئناً، در اینجا چند توصیه علمی-تخیلی هیجان انگیز وجود دارد که ممکن است از آنها لذت ببرید: – «تلماسه» نوشته فرانک هربرت: این رمان علمی تخیلی حماسی در سیاره بیابانی آراکیس اتفاق میافتد، جایی که شاهزاده جوانی به نام پل آتریدس باید با چالشهای یک محیط خصمانه و یک چشمانداز سیاسی خائنانه روبرو شود. – «مریخی» نوشته اندی ویر: این مهیج علمی-تخیلی جذاب داستان مارک واتنی، فضانوردی را دنبال میکند که پس از طوفان گرد و غبار در مریخ گیر افتاده است، زیرا از نبوغ و تدبیر خود برای زنده ماندن و در نهایت راه بازگشت به زمین استفاده میکند. – «ماشین زمان» اثر اچجی ولز: این رمان علمی تخیلی کلاسیک رویکردی فلسفی به مفهوم سفر در زمان دارد و پیامدهای تغییر گذشته و آینده را بررسی میکند. – «بلید رانر» نوشته فیلیپ کی دیک: این رمان علمی تخیلی نئو نوآر که در یک لس آنجلس آیندهنگر میگذرد، تلاقی هوش مصنوعی و انسان و تأثیر آن بر جامعه و ماهیت واقعیت را بررسی میکند. – «اندرویدها» نوشته آیزاک آسیموف: این رمان علمی تخیلی به بررسی مفهوم هوش مصنوعی و پیامدهای بالقوه آن می پردازد، به ویژه زمانی که انسان ها اندرویدهای پیشرفته ای را توسعه می دهند که ارزش ها و باورهای سنتی انسان را به چالش می کشد. اینها فقط چند پیشنهاد هستند و در نهایت بهترین کتاب برای شما به ترجیحات شخصی شما و نوع تجربه ای که در یک فیلم علمی تخیلی به دنبال آن هستید بستگی دارد. اما امیدوارم این توصیه ها نقطه شروع خوبی برای کاوش در ژانر به شما باشد. لطفاً اگر سؤال دیگری دارید یا چیزی وجود دارد که می توانم به شما کمک کنم، به من اطلاع دهید. |
2 |
کاربر: یک برنامه Hello World در VB.NET بنویسید دستیار: در اینجا می روید: «vbnet کاربر: کاری کنید که ورودی $ را بگیرد و سپس به جای "Hello, World!" بگویید "Hello, $"! |
دستیار: ماژول عمومی HelloWorld عمومی زیر اصلی () System.Console.WriteLine ("نام شما چیست؟") نام کم به عنوان رشته = System.Console.ReadLine() System.Console.WriteLine («سلام،» و نام و «!») پایان دادن به زیر ماژول پایان |
دستیار: “`vbnet ماژول عمومی HelloWorld عمومی زیر اصلی () نام کم به عنوان رشته = Console.ReadLine() Console.WriteLine («سلام،» و نام) پایان دادن به زیر ماژول پایان |
دستیار: حتما! به عنوان مثال: «vbnet |
3 |
کاربر: فهرستی از مواردی که باید در هنگام شروع پروژه برای آموزش یک مدل زبان بزرگ که می تواند سؤالات انسانی را بفهمد و به آنها پاسخ دهد، به من بدهید. دستیار: مراحل زیر فهرستی فشرده از مراحلی است که باید هنگام شروع یک پروژه برای آموزش یک مدل زبان بزرگ که قادر به درک و پاسخگویی به سؤالات انسانی باشد، انجام داد: 1. محدوده و اهداف پروژه، مخاطبان هدف را تعیین کنید. این باید به شما یک ایده اولیه از مراحل مورد نیاز بدهد. آیا باید در مورد یکی از نکات بیشتر توضیح دهم؟ کاربر: این کارها باید بیشتر تفکیک شوند، میتوانید لیست کارهای بهروز شده را با تفکیک دقیقتری از وظایف پیش رو ارائه کنید. |
دستیار: در اینجا یک تفکیک دقیق تر از هر مرحله آورده شده است: 1. تعیین محدوده و اهداف پروژه: مهم است که اهداف پروژه و مخاطبان مورد نظر را به وضوح تعریف کنید. این به شما کمک می کند در مورد نوع داده هایی که باید جمع آوری کنید و معماری مدل مناسبی تصمیم بگیرید. 2. جمع آوری و پیش پردازش داده ها: این یک مرحله مهم است زیرا کیفیت و تنوع داده ها مستقیماً بر عملکرد مدل تأثیر می گذارد. پیش پردازش ممکن است شامل پاک کردن داده ها، نشانه گذاری متن و تبدیل کلمات به نمایش های عددی باشد. 3. انتخاب معماری مدل: انواع مختلفی از مدل ها برای انتخاب وجود دارد، از جمله شبکه های عصبی بازگشتی (RNN)، مدل های ترانسفورماتور و شبکه های عصبی کانولوشن (CNN). انتخاب به نیازهای خاص پروژه و میزان داده های موجود بستگی دارد. 4. تقسیم داده ها و پیاده سازی افزایش داده ها: تقسیم داده ها به زیر مجموعه های آموزشی، اعتبار سنجی و آزمایش برای نظارت بر عملکرد مدل در طول آموزش مهم است. تقویت داده ها می تواند برای افزایش مصنوعی اندازه مجموعه داده و بهبود استحکام مدل استفاده شود. 5. مدل قطار و پیشرفت نظارت: این مرحله شامل آموزش مدل بر روی داده های آموزشی، با استفاده از مجموعه اعتبارسنجی برای نظارت بر پیشرفت و تنظیم فراپارامترها در صورت نیاز است. ممکن است لازم باشد این فرآیند چندین بار تکرار شود تا زمانی که مدل در مجموعه اعتبارسنجی به خوبی عمل کند. 6. ارزیابی مدل در مجموعه آزمون: هنگامی که مدل آموزش داده شد، ارزیابی عملکرد آن در یک مجموعه آزمایشی جداگانه برای دریافت ایده ای از توانایی تعمیم آن مهم است. این را می توان با مقایسه پیش بینی های مدل با نتایج واقعی و تجزیه و تحلیل خطاها انجام داد. 7. تنظیم دقیق برای وظایف یا دامنه های خاص: این مرحله شامل آموزش بیشتر مدل در مورد داده های کار خاص برای بهبود عملکرد آن برای یک دامنه خاص است. این را می توان از طریق یادگیری انتقال انجام داد، که در آن یک مدل از پیش آموزش داده شده بر روی داده های جدید تنظیم شده است، یا از طریق تنظیم دقیق، که در آن مدل از ابتدا بر روی داده های جدید آموزش داده می شود. 8. ایجاد یک رابط برای ورودی کاربر: این شامل طراحی یک رابط است که به کاربران اجازه می دهد سوالات یا درخواست ها را وارد کنند و پاسخ ها را از مدل دریافت کنند. 9. تست در محیط کنترل شده: قبل از استقرار مدل در یک محیط واقعی، مهم است که آن را در یک محیط کنترل شده آزمایش کنید و بازخورد کاربران را جمع آوری کنید. این به شناسایی هر گونه خطا یا سوگیری در مدل کمک می کند و فرصت هایی برای بهبود فراهم می کند. 10. نظارت مستمر و بهبود عملکرد: در نهایت، نظارت مستمر بر عملکرد مدل و انجام به روز رسانی و بهبود در صورت نیاز بسیار مهم است. این ممکن است شامل آموزش مجدد مدل بر روی داده های جدید، تنظیم دقیق هایپرپارامترها یا به روز رسانی معماری باشد. |
دستیار: ## فهرست کارها برای آموزش مدل زبان بزرگ برای پاسخگویی به سوال **1. محدوده و اهداف پروژه:** * اهداف پروژه و قابلیت های مورد نظر را تعریف کنید. **2. جمع آوری و پیش پردازش داده ها:** * شناسایی منابع برای داده های آموزشی و جمع آوری مجموعه داده متنی متنوع. **3. انتخاب و پیکربندی مدل:** * معماری مدل مناسب را بر اساس پیچیدگی کار و عملکرد مورد نظر انتخاب کنید. **4. آموزش و ارزشیابی:** * داده های آموزشی را به زیر مجموعه های آموزشی، اعتبار سنجی و آزمایش تقسیم کنید. **5. تنظیم دقیق و توسعه رابط:** * مدل را برای وظایف یا حوزه های خاص از طریق یادگیری انتقالی تنظیم کنید. **6. تست و بهبود:** * مدل را در یک محیط کنترل شده با سناریوهای ورودی مختلف تست کنید. **نکات اضافی:** * یک جدول زمانی و بودجه برای پروژه تعیین کنید. **توجه:** این لیست جامع نیست و ممکن است نیاز به تطبیق بر اساس الزامات خاص پروژه باشد. |
دستیار: مطمئناً، در اینجا تفکیک دقیق تری از وظایف مربوط به آموزش یک مدل زبان بزرگ برای درک و پاسخ به سؤالات انسانی آورده شده است: **1. تعیین محدوده و اهداف پروژه** **2. جمع آوری و پیش پردازش یک مجموعه داده متنی جامع/متنوع** **3. یک معماری مدل مناسب را انتخاب کنید، فراپارامترها را برای دقت/سرعت تنظیم کنید** **4. تقسیم مجموعه داده ها به زیرمجموعه های آموزشی، اعتبارسنجی، آزمایش، پیاده سازی افزایش داده ها** **5. مدل قطار، نظارت بر پیشرفت در مجموعه اعتبارسنجی، تنظیم در صورت نیاز ** **6. ارزیابی مدل در مجموعه تست، مقایسه با معیارها، تجزیه و تحلیل خطاها و سوگیری ها** **7. تنظیم دقیق برای وظایف یا دامنه های خاص از طریق آموزش انتقال یا تنظیم دقیق ** **8. ایجاد رابط برای ورودی کاربر و پاسخ مدل** **9. تست در محیط کنترل شده، جمع آوری بازخورد برای بهبود ** **10. نظارت مستمر و بهبود عملکرد از طریق بازآموزی و تنظیم دقیق ** اینها مراحلی هستند که در آموزش یک مدل زبان بزرگ برای درک و پاسخ به سؤالات انسانی نقش دارند. لطفا اگر سوالی دارید به من اطلاع دهید. |
پاک کردن
پس از اینکه نقاط پایانی را آزمایش کردید، نقاط پایانی استنتاج SageMaker و مدل را حذف کنید تا از تحمیل هزینه جلوگیری کنید.
نتیجه
در این پست به شما نشان دادیم که چگونه با Gemma در استودیو SageMaker شروع به کار کنید و مدل را برای استنتاج به کار ببرید. ما همچنین به شما نشان دادیم که چگونه میتوانید مدلهای Gemma را در SageMaker Jumpstart تنظیم کنید.
از آنجایی که مدل های فونداسیون از قبل آموزش دیده اند، می توانند به کاهش هزینه های آموزش و زیرساخت کمک کنند و سفارشی سازی را برای موارد استفاده شما امکان پذیر کنند. اکنون برای شروع به SageMaker JumpStart در SageMaker Studio مراجعه کنید.
این راهنما فقط برای مقاصد اطلاعاتی است. شما همچنان باید ارزیابی مستقل خود را انجام دهید و اقداماتی را انجام دهید تا اطمینان حاصل شود که از رویهها و استانداردهای کنترل کیفیت خاص خود، و قوانین، قوانین، مقررات، مجوزها و شرایط استفاده محلی که در مورد شما، محتوای شما، و مدل شخص ثالث که در این راهنما به آن اشاره شده است. AWS هیچ کنترل یا اختیاری بر مدل شخص ثالث اشاره شده در این راهنما ندارد، و هیچ گونه تضمین یا تضمینی مبنی بر ایمن، عاری از ویروس، عملیاتی بودن مدل شخص ثالث، یا سازگار با محیط تولید و استانداردهای شما ارائه نمی کند. AWS هیچ گونه اظهارنظر، ضمانت یا تضمینی مبنی بر اینکه هر گونه اطلاعات موجود در این راهنما به نتیجه یا نتیجه خاصی منجر شود، ارائه نمی کند.
درباره نویسندگان
دکتر کایل اولریش دانشمند کاربردی با الگوریتم های داخلی آمازون SageMaker تیم علایق تحقیقاتی او شامل الگوریتم های یادگیری ماشین مقیاس پذیر، بینایی کامپیوتر، سری های زمانی، ناپارامتریک های بیزی و فرآیندهای گاوسی است. دکترای او از دانشگاه دوک است و مقالاتی در NeurIPS، Cell و Neuron منتشر کرده است.
دکتر شین هوانگ یک دانشمند کاربردی ارشد برای آمازون SageMaker JumpStart و آمازون SageMaker الگوریتم های داخلی است. او بر توسعه الگوریتمهای یادگیری ماشینی مقیاسپذیر تمرکز دارد. علایق تحقیقاتی او در زمینه پردازش زبان طبیعی، یادگیری عمیق قابل توضیح بر روی داده های جدولی، و تجزیه و تحلیل قوی خوشه بندی ناپارامتری فضا-زمان است. او مقالات زیادی را در کنفرانسهای ACL، ICDM، KDD، و انجمن آماری سلطنتی: سری A منتشر کرده است.
راچنا چادا یک معمار راه حل اصلی AI/ML در حساب های استراتژیک در AWS است. Rachna خوشبین است که معتقد است استفاده اخلاقی و مسئولانه از هوش مصنوعی می تواند جامعه را در آینده بهبود بخشد و رفاه اقتصادی و اجتماعی را به ارمغان بیاورد. راچنا در اوقات فراغت خود دوست دارد با خانواده، پیاده روی و گوش دادن به موسیقی وقت بگذراند.
ایوان کراویتز یک مهندس نرم افزار در خدمات وب آمازون است که روی SageMaker JumpStart کار می کند. او از آشپزی و دویدن در شهر نیویورک لذت می برد.
دکتر آشیش ختان یک دانشمند کاربردی ارشد با الگوریتم های داخلی Amazon SageMaker است و به توسعه الگوریتم های یادگیری ماشین کمک می کند. او دکترای خود را از دانشگاه ایلینویز Urbana-Champaign گرفت. او یک محقق فعال در یادگیری ماشین و استنتاج آماری است و مقالات زیادی در کنفرانس های NeurIPS، ICML، ICLR، JMLR، ACL و EMNLP منتشر کرده است.
- محتوای مبتنی بر SEO و توزیع روابط عمومی. امروز تقویت شوید.
- PlatoData.Network Vertical Generative Ai. به خودت قدرت بده دسترسی به اینجا.
- PlatoAiStream. هوش وب 3 دانش تقویت شده دسترسی به اینجا.
- PlatoESG. کربن ، CleanTech، انرژی، محیط، خورشیدی، مدیریت پسماند دسترسی به اینجا.
- PlatoHealth. هوش بیوتکنولوژی و آزمایشات بالینی. دسترسی به اینجا.
- منبع: https://aws.amazon.com/blogs/machine-learning/gemma-is-now-available-in-amazon-sagemaker-jumpstart/