Kecerdasan Data Generatif

Model AI Ultra Ringan Ini Cocok di Ponsel Anda dan Dapat Mengalahkan ChatGPT – Dekripsi

Tanggal:

Microsoft hari ini diklaim bahwa mereka telah merilis “model bahasa kecil (SLM) yang paling mumpuni dan hemat biaya,” katanya Fi-3—iterasi ketiganya Keluarga Model Bahasa Kecil Phi (SLM)—mengungguli model berukuran serupa dan beberapa model yang lebih besar.

Model Bahasa Kecil (SLM) adalah jenis model AI yang dirancang agar sangat efisien dalam melakukan tugas terkait bahasa tertentu. Berbeda dengan Large Language Model (LLM), yang cocok untuk berbagai tugas umum, SLM dibangun berdasarkan kumpulan data yang lebih kecil agar lebih efisien dan hemat biaya untuk kasus penggunaan tertentu.

Phi-3 hadir dalam versi yang berbeda, Microsoft menjelaskan, dengan yang terkecil adalah Phi-3 Mini, model parameter 3.8 miliar yang dilatih pada 3.3 triliun token. Meskipun ukurannya relatif kecil—korpus Llama-3 berbobot lebih dari itu 15 triliun token data—Phi-3 Mini masih mampu menangani 128 ribu token konteks. Hal ini membuatnya sebanding dengan GPT-4 dan mengalahkan Llama-3 dan Mistral Large dalam hal kapasitas token.

Dengan kata lain, raksasa AI seperti Llama-3 di Meta.ai dan Mistral Large bisa runtuh setelah obrolan panjang atau prompt jauh sebelum model ringan ini mulai bermasalah.

Salah satu keunggulan paling signifikan dari Phi-3 Mini adalah kemampuannya untuk dipasang dan dijalankan pada smartphone biasa. Microsoft menguji model tersebut pada iPhone 14, dan model tersebut berjalan tanpa masalah, menghasilkan 14 token per detik. Menjalankan Phi-3 Mini hanya membutuhkan VRAM 1.8 GB, menjadikannya alternatif yang ringan dan efisien bagi pengguna dengan kebutuhan yang lebih fokus.

Meskipun Phi-3 Mini mungkin tidak cocok untuk pembuat kode kelas atas atau orang dengan kebutuhan luas, Phi-3 Mini dapat menjadi alternatif yang efektif bagi pengguna dengan kebutuhan khusus. Misalnya, startup yang memerlukan chatbot atau orang yang memanfaatkan LLM untuk analisis data dapat menggunakan Phi-XNUMX Mini untuk tugas-tugas seperti pengorganisasian data, mengekstraksi informasi, melakukan penalaran matematika, dan membangun agen. Jika model tersebut diberi akses internet, model tersebut bisa menjadi sangat kuat, sehingga mengimbangi kurangnya kemampuannya dengan informasi real-time.

Phi-3 Mini mencapai skor tes yang tinggi karena fokus Microsoft dalam menyusun kumpulan datanya dengan informasi yang paling berguna. Faktanya, keluarga Phi yang lebih luas tidak cocok untuk tugas-tugas yang membutuhkan pengetahuan faktual, tetapi keterampilan penalaran yang tinggi menempatkan mereka di atas pesaing utama. Phi-3 Medium (model dengan 14 miliar parameter) secara konsisten mengalahkan LLM canggih seperti GPT-3.5 —LLM yang mendukung versi gratis ChatGPT— dan versi Mini mengalahkan model canggih seperti Mixtral-8x7B di sebagian besar tolok ukur sintetis.

Namun perlu dicatat bahwa Phi-3 bukanlah open source seperti pendahulunya, Phi-2. Sebaliknya, ini adalah sebuah model terbuka, artinya dapat diakses dan tersedia untuk digunakan, namun tidak memiliki lisensi sumber terbuka yang sama seperti Phi-2, yang memungkinkan penggunaan lebih luas dan aplikasi komersial.

Dalam beberapa minggu mendatang, Microsoft mengatakan akan merilis lebih banyak model dalam keluarga Phi-3, termasuk Phi-3 Small (7 miliar parameter) dan Phi-3 Medium yang disebutkan di atas.

Microsoft telah menyediakan Phi-3 Mini di Azure AI Studio, Hugging Face, dan Ollama. Model ini disesuaikan dengan instruksi dan dioptimalkan untuk ONNX Runtime dengan dukungan untuk Windows DirectML, serta dukungan lintas platform di berbagai GPU, CPU, dan bahkan perangkat keras seluler.

Tetap di atas berita crypto, dapatkan pembaruan harian di kotak masuk Anda.

tempat_img

Intelijen Terbaru

tempat_img

Hubungi kami

Hai, yang di sana! Apa yang bisa saya bantu?