ความฉลาดทางข้อมูลเชิงกำเนิด

โมเดล AI ที่เบาเป็นพิเศษนี้เหมาะกับโทรศัพท์ของคุณและสามารถเอาชนะ ChatGPT – ถอดรหัสได้

วันที่:

Microsoft วันนี้ อ้างว่า ว่าได้เปิดตัว “โมเดลภาษาขนาดเล็ก (SLM) ที่มีความสามารถและคุ้มค่าที่สุดที่มีอยู่” กล่าว พี-3— การทำซ้ำครั้งที่สามของมัน ตระกูลพีของโมเดลภาษาเล็ก (SLM)—มีประสิทธิภาพเหนือกว่าโมเดลที่มีขนาดใกล้เคียงกันและโมเดลที่ใหญ่กว่าสองสามตัว

โมเดลภาษาขนาดเล็ก (SLM) คือโมเดล AI ประเภทหนึ่งที่ออกแบบมาให้มีประสิทธิภาพอย่างมากในการปฏิบัติงานที่เกี่ยวข้องกับภาษาเฉพาะ ต่างจาก Large Language Models (LLM) ซึ่งเหมาะอย่างยิ่งสำหรับงานทั่วไปที่หลากหลาย SLM ถูกสร้างขึ้นจากชุดข้อมูลขนาดเล็กเพื่อให้มีประสิทธิภาพและคุ้มค่ามากขึ้นสำหรับกรณีการใช้งานเฉพาะ

Microsoft อธิบาย Phi-3 มาในเวอร์ชันที่แตกต่างกัน โดยเวอร์ชันที่เล็กที่สุดคือ Phi-3 Mini ซึ่งเป็นโมเดลพารามิเตอร์ 3.8 พันล้านที่ฝึกฝนบนโทเค็น 3.3 ล้านล้าน แม้จะมีขนาดค่อนข้างเล็ก แต่คลังข้อมูลของ Llama-3 ก็มีน้ำหนักมากกว่า 15 ล้านล้าน โทเค็นของข้อมูล—Phi-3 Mini ยังคงสามารถจัดการโทเค็นบริบทได้ 128 โทเค็น ทำให้สามารถเทียบเคียงได้กับ GPT-4 และเหนือกว่า Llama-3 และ Mistral Large ในแง่ของความจุโทเค็น

กล่าวอีกนัยหนึ่ง ยักษ์ใหญ่ด้าน AI เช่น Llama-3 บน Meta.ai และ Mistral Large อาจพังทลายลงหลังจากการแชทอันยาวนานหรือแจ้งเตือนก่อนที่โมเดลน้ำหนักเบานี้จะเริ่มประสบปัญหา

ข้อดีที่สำคัญที่สุดประการหนึ่งของ Phi-3 Mini คือความสามารถในการติดตั้งและใช้งานบนสมาร์ทโฟนทั่วไป Microsoft ทดสอบโมเดลบน iPhone 14 และทำงานได้ไม่มีปัญหา โดยสร้างโทเค็นได้ 14 โทเค็นต่อวินาที การใช้งาน Phi-3 Mini ต้องการ VRAM เพียง 1.8GB ทำให้เป็นทางเลือกที่มีน้ำหนักเบาและมีประสิทธิภาพสำหรับผู้ใช้ที่มีความต้องการเฉพาะด้านมากกว่า

แม้ว่า Phi-3 Mini อาจไม่เหมาะกับผู้เขียนโค้ดระดับไฮเอนด์หรือผู้ที่มีความต้องการกว้างๆ แต่ก็อาจเป็นทางเลือกที่มีประสิทธิภาพสำหรับผู้ใช้ที่มีความต้องการเฉพาะได้ ตัวอย่างเช่น สตาร์ทอัพที่ต้องการแชทบอทหรือผู้ที่ใช้ประโยชน์จาก LLM ในการวิเคราะห์ข้อมูลสามารถใช้ Phi-3 Mini สำหรับงานต่างๆ เช่น การจัดระเบียบข้อมูล การดึงข้อมูล การใช้เหตุผลทางคณิตศาสตร์ และการสร้างตัวแทน หากโมเดลดังกล่าวได้รับการเข้าถึงอินเทอร์เน็ต โมเดลจะมีประสิทธิภาพมากขึ้น โดยชดเชยการขาดความสามารถด้วยข้อมูลแบบเรียลไทม์

Phi-3 Mini ได้รับคะแนนการทดสอบสูง เนื่องจาก Microsoft ให้ความสำคัญกับการดูแลชุดข้อมูลด้วยข้อมูลที่เป็นประโยชน์มากที่สุดเท่าที่จะเป็นไปได้ ในความเป็นจริง ครอบครัว Phi ที่กว้างกว่านั้นไม่ดีสำหรับงานที่ต้องใช้ความรู้เชิงข้อเท็จจริง แต่ทักษะการใช้เหตุผลสูงทำให้พวกเขาอยู่เหนือคู่แข่งรายใหญ่ Phi-3 Medium (โมเดลพารามิเตอร์ 14 พันล้าน) เอาชนะ LLM อันทรงพลังอย่าง GPT-3.5 — LLM ที่ขับเคลื่อน ChatGPT เวอร์ชันฟรีอย่างต่อเนื่อง — และเวอร์ชัน Mini เอาชนะโมเดลอันทรงพลังอย่าง Mixtral-8x7B ในการวัดประสิทธิภาพสังเคราะห์ส่วนใหญ่

อย่างไรก็ตาม เป็นที่น่าสังเกตว่า Phi-3 ไม่ใช่โอเพ่นซอร์สเหมือนกับ Phi-2 รุ่นก่อน แทนที่จะเป็นอย่างนั้น รุ่นเปิดซึ่งหมายความว่าสามารถเข้าถึงได้และพร้อมใช้งาน แต่ไม่มีใบอนุญาตโอเพ่นซอร์สแบบเดียวกับ Phi-2 ซึ่งช่วยให้สามารถใช้งานได้ในวงกว้างและแอปพลิเคชันเชิงพาณิชย์

ในอีกไม่กี่สัปดาห์ข้างหน้า Microsoft กล่าวว่าจะเปิดตัวโมเดลเพิ่มเติมในตระกูล Phi-3 รวมถึง Phi-3 Small (พารามิเตอร์ 7 พันล้านพารามิเตอร์) และ Phi-3 Medium ที่กล่าวมาข้างต้น

Microsoft ได้เปิดให้ใช้งาน Phi-3 Mini บน Azure AI Studio, Hugging Face และ Ollama โมเดลนี้ได้รับการปรับแต่งคำสั่งและปรับให้เหมาะสมสำหรับ ONNX Runtime พร้อมการรองรับ Windows DirectML เช่นเดียวกับการรองรับข้ามแพลตฟอร์มบน GPU, CPU และแม้แต่ฮาร์ดแวร์มือถือที่แตกต่างกัน

ติดตามข่าวสาร crypto รับการอัปเดตทุกวันในกล่องจดหมายของคุณ

จุด_img

ข่าวกรองล่าสุด

จุด_img

แชทกับเรา

สวัสดี! ฉันจะช่วยคุณได้อย่างไร?