Microsoft วันนี้ อ้างว่า ว่าได้เปิดตัว “โมเดลภาษาขนาดเล็ก (SLM) ที่มีความสามารถและคุ้มค่าที่สุดที่มีอยู่” กล่าว พี-3— การทำซ้ำครั้งที่สามของมัน ตระกูลพีของโมเดลภาษาเล็ก (SLM)—มีประสิทธิภาพเหนือกว่าโมเดลที่มีขนาดใกล้เคียงกันและโมเดลที่ใหญ่กว่าสองสามตัว
โมเดลภาษาขนาดเล็ก (SLM) คือโมเดล AI ประเภทหนึ่งที่ออกแบบมาให้มีประสิทธิภาพอย่างมากในการปฏิบัติงานที่เกี่ยวข้องกับภาษาเฉพาะ ต่างจาก Large Language Models (LLM) ซึ่งเหมาะอย่างยิ่งสำหรับงานทั่วไปที่หลากหลาย SLM ถูกสร้างขึ้นจากชุดข้อมูลขนาดเล็กเพื่อให้มีประสิทธิภาพและคุ้มค่ามากขึ้นสำหรับกรณีการใช้งานเฉพาะ
Microsoft อธิบาย Phi-3 มาในเวอร์ชันที่แตกต่างกัน โดยเวอร์ชันที่เล็กที่สุดคือ Phi-3 Mini ซึ่งเป็นโมเดลพารามิเตอร์ 3.8 พันล้านที่ฝึกฝนบนโทเค็น 3.3 ล้านล้าน แม้จะมีขนาดค่อนข้างเล็ก แต่คลังข้อมูลของ Llama-3 ก็มีน้ำหนักมากกว่า 15 ล้านล้าน โทเค็นของข้อมูล—Phi-3 Mini ยังคงสามารถจัดการโทเค็นบริบทได้ 128 โทเค็น ทำให้สามารถเทียบเคียงได้กับ GPT-4 และเหนือกว่า Llama-3 และ Mistral Large ในแง่ของความจุโทเค็น
กล่าวอีกนัยหนึ่ง ยักษ์ใหญ่ด้าน AI เช่น Llama-3 บน Meta.ai และ Mistral Large อาจพังทลายลงหลังจากการแชทอันยาวนานหรือแจ้งเตือนก่อนที่โมเดลน้ำหนักเบานี้จะเริ่มประสบปัญหา
ข้อดีที่สำคัญที่สุดประการหนึ่งของ Phi-3 Mini คือความสามารถในการติดตั้งและใช้งานบนสมาร์ทโฟนทั่วไป Microsoft ทดสอบโมเดลบน iPhone 14 และทำงานได้ไม่มีปัญหา โดยสร้างโทเค็นได้ 14 โทเค็นต่อวินาที การใช้งาน Phi-3 Mini ต้องการ VRAM เพียง 1.8GB ทำให้เป็นทางเลือกที่มีน้ำหนักเบาและมีประสิทธิภาพสำหรับผู้ใช้ที่มีความต้องการเฉพาะด้านมากกว่า
แม้ว่า Phi-3 Mini อาจไม่เหมาะกับผู้เขียนโค้ดระดับไฮเอนด์หรือผู้ที่มีความต้องการกว้างๆ แต่ก็อาจเป็นทางเลือกที่มีประสิทธิภาพสำหรับผู้ใช้ที่มีความต้องการเฉพาะได้ ตัวอย่างเช่น สตาร์ทอัพที่ต้องการแชทบอทหรือผู้ที่ใช้ประโยชน์จาก LLM ในการวิเคราะห์ข้อมูลสามารถใช้ Phi-3 Mini สำหรับงานต่างๆ เช่น การจัดระเบียบข้อมูล การดึงข้อมูล การใช้เหตุผลทางคณิตศาสตร์ และการสร้างตัวแทน หากโมเดลดังกล่าวได้รับการเข้าถึงอินเทอร์เน็ต โมเดลจะมีประสิทธิภาพมากขึ้น โดยชดเชยการขาดความสามารถด้วยข้อมูลแบบเรียลไทม์
Phi-3 Mini ได้รับคะแนนการทดสอบสูง เนื่องจาก Microsoft ให้ความสำคัญกับการดูแลชุดข้อมูลด้วยข้อมูลที่เป็นประโยชน์มากที่สุดเท่าที่จะเป็นไปได้ ในความเป็นจริง ครอบครัว Phi ที่กว้างกว่านั้นไม่ดีสำหรับงานที่ต้องใช้ความรู้เชิงข้อเท็จจริง แต่ทักษะการใช้เหตุผลสูงทำให้พวกเขาอยู่เหนือคู่แข่งรายใหญ่ Phi-3 Medium (โมเดลพารามิเตอร์ 14 พันล้าน) เอาชนะ LLM อันทรงพลังอย่าง GPT-3.5 — LLM ที่ขับเคลื่อน ChatGPT เวอร์ชันฟรีอย่างต่อเนื่อง — และเวอร์ชัน Mini เอาชนะโมเดลอันทรงพลังอย่าง Mixtral-8x7B ในการวัดประสิทธิภาพสังเคราะห์ส่วนใหญ่
อย่างไรก็ตาม เป็นที่น่าสังเกตว่า Phi-3 ไม่ใช่โอเพ่นซอร์สเหมือนกับ Phi-2 รุ่นก่อน แทนที่จะเป็นอย่างนั้น รุ่นเปิดซึ่งหมายความว่าสามารถเข้าถึงได้และพร้อมใช้งาน แต่ไม่มีใบอนุญาตโอเพ่นซอร์สแบบเดียวกับ Phi-2 ซึ่งช่วยให้สามารถใช้งานได้ในวงกว้างและแอปพลิเคชันเชิงพาณิชย์
ในอีกไม่กี่สัปดาห์ข้างหน้า Microsoft กล่าวว่าจะเปิดตัวโมเดลเพิ่มเติมในตระกูล Phi-3 รวมถึง Phi-3 Small (พารามิเตอร์ 7 พันล้านพารามิเตอร์) และ Phi-3 Medium ที่กล่าวมาข้างต้น
Microsoft ได้เปิดให้ใช้งาน Phi-3 Mini บน Azure AI Studio, Hugging Face และ Ollama โมเดลนี้ได้รับการปรับแต่งคำสั่งและปรับให้เหมาะสมสำหรับ ONNX Runtime พร้อมการรองรับ Windows DirectML เช่นเดียวกับการรองรับข้ามแพลตฟอร์มบน GPU, CPU และแม้แต่ฮาร์ดแวร์มือถือที่แตกต่างกัน
ติดตามข่าวสาร crypto รับการอัปเดตทุกวันในกล่องจดหมายของคุณ
- เนื้อหาที่ขับเคลื่อนด้วย SEO และการเผยแพร่ประชาสัมพันธ์ รับการขยายวันนี้
- PlatoData.Network Vertical Generative Ai เพิ่มพลังให้กับตัวเอง เข้าถึงได้ที่นี่.
- เพลโตไอสตรีม. Web3 อัจฉริยะ ขยายความรู้ เข้าถึงได้ที่นี่.
- เพลโตESG. คาร์บอน, คลีนเทค, พลังงาน, สิ่งแวดล้อม แสงอาทิตย์, การจัดการของเสีย. เข้าถึงได้ที่นี่.
- เพลโตสุขภาพ เทคโนโลยีชีวภาพและข่าวกรองการทดลองทางคลินิก เข้าถึงได้ที่นี่.
- ที่มา: https://decrypt.co/227974/microsoft-phi-3-mini-small-ai-language-model