Kecerdasan Data Generatif

Asisten yang Bermanfaat, Pasangan Romantis, atau Penipu? Bagian Satu »Blog CCC

Tanggal:

CCC mendukung tiga sesi ilmiah pada Konferensi Tahunan AAAS tahun ini, dan jika Anda tidak dapat hadir secara langsung, kami akan merangkum setiap sesi. Minggu ini, kami akan merangkum hal-hal penting dari presentasi panelis pada sesi tersebut, “Model Bahasa Besar: Asisten yang Bermanfaat, Mitra Romantis, atau Penipu?” Panel ini, dimoderatori oleh Dr.Maria Gini, Anggota Dewan CCC dan profesor Ilmu & Teknik Komputer di Universitas Minnesota, menampilkan Dr.Ece Kamar, Direktur Pelaksana AI Frontiers di Microsoft Research, Dr. Hal Daumé III, profesor Ilmu Komputer di Universitas Maryland, dan Dr.Jonatan Mei, profesor Ilmu Komputer di Institut Ilmu Informasi Universitas Southern California.

Model Bahasa Besar berada di garis depan percakapan di masyarakat saat ini, dan juri akan menentukan apakah mereka dapat memenuhi hype yang ada di sekitarnya. Panelis sesi AAAS ini membahas kemungkinan, tantangan, dan potensi LLM.

Panelis pertama adalah Dr. Ece Kamar (Microsoft Research). Dia menggambarkan status AI saat ini sebagai “Transisi Fase.” Dia memberikan perspektif unik sebagai seseorang yang telah melihat perubahan AI di industri, dan pertumbuhan eksponensial dalam model pembelajaran mendalam yang hanya diantisipasi oleh sedikit orang akan berlanjut hingga tahun 2024.

Pertumbuhan ini disebabkan oleh peningkatan jumlah data yang digunakan untuk melatih LLM, dan arsitektur yang lebih besar yang disebut transformator. Wawasan menarik yang dibagikan Dr. Kamar pada grafik adalah bahwa model mengalami penskalaan yang sangat cepat karena awalnya hanya dilatih untuk tugas tertentu; tugas yang dapat mereka lakukan dengan andal. ChatGPT menunjukkan bahwa jika Anda melakukan penskalaan yang cukup besar, termasuk jumlah parameter yang diperhitungkan oleh model, model dapat mulai menyelesaikan tugas dengan performa serupa dengan model yang dilatih untuk secara khusus menyelesaikan tugas yang sama.

Inilah definisi transisi fase LLM: model tidak perlu lagi dilatih secara khusus untuk tugas tertentu, namun dapat dilatih secara umum dan kemudian melakukan banyak tugas. Dan tidak ada tanda-tanda bahwa pertumbuhan kemampuan-kemampuan ini melambat.

Dr. Kamar memiliki akses awal ke GPT-4, dan selama pengujiannya yang panjang, dia terkesan dengan peningkatan signifikan yang dihasilkan dari skala dan data, serta fakta bahwa GPT-XNUMX dapat menyelesaikan berbagai tugas secara bersamaan.

Apa masa depan LLM ini? Dr Kamar mengantisipasi bahwa LLM akan melampaui bahasa manusia, dan mempelajari bahasa mesin dan mampu menerjemahkan antara dua bahasa. Hal ini akan meningkatkan kemampuan modalitas dalam masukan dan keluaran, yang dapat menyebabkan model tidak hanya mampu menghasilkan bahasa, namun juga tindakan dan prediksi dalam perilaku.

Selanjutnya, Dr. Kamar memperluas transisi fase signifikan yang terjadi dalam komputasi. Sistem sedang dikembangkan dengan sangat berbeda saat ini, dan pengembangan ini memerlukan penciptaan paradigma komputasi baru yang saat ini baru kita bahas di permukaan. Cara kita berinteraksi dengan komputer akan terlihat jauh berbeda di tahun-tahun mendatang, dan hal ini memerlukan pemikiran ulang tentang Interaksi Manusia-Komputer (HCI).

Perubahan lainnya adalah cara manusia bekerja ke depan. Microsoft telah melakukan penelitian bahwa produktivitas pekerja dapat berlipat ganda dalam hal baris kode yang ditulis jika dibantu oleh AI. Ini adalah prestasi yang luar biasa, namun cara kerja teknologi ini dan dari mana kecerdasannya berasal sebagian besar masih belum diketahui, sehingga ada banyak pertanyaan penelitian di bidang ini.

Banyak juga pertanyaan tentang potensi penyalahgunaan LLM seperti ini. Terdapat kekhawatiran seputar keadilan, risiko demografis yang berbeda, dan konsekuensi lain yang lebih drastis. Meskipun terdapat potensi besar untuk penemuan ilmiah, terdapat pula potensi bahaya yang besar; misalnya meyakinkan orang tua untuk tidak memvaksinasi anak mereka, seorang anak untuk melakukan sesuatu yang buruk, atau meyakinkan seseorang bahwa dunia ini datar. Banyak upaya keselamatan telah dilakukan dalam pengembangan LLM, dan open source juga bisa sangat membantu untuk mencapai kemajuan di bidang ini.  

Dr Kamar kemudian mengajukan pertanyaan kepada komunitas ilmiah:

  • Bagaimana ilmu pengetahuan akan berubah dengan adanya gangguan AI?
  • Apakah kita mengambil langkah-langkah untuk mengubah cara kita mendidik dan melatih generasi berikutnya?
  • Apakah Anda membangun infrastruktur teknologi untuk mendapatkan manfaat dari transisi fase ini?
  • Apakah kita mempersiapkan generasi masa depan untuk menghadapi dunia baru?

Terakhir, Dr. Kamar menekankan bahwa salah satu aspek inti transisi fase yang luar biasa adalah kecepatan perkembangan LLM. Model-model ini meningkat secara signifikan dalam waktu yang sangat singkat, dan banyak hal yang harus dilakukan oleh para peneliti komputasi.

Panelis kedua, Dr. Hal Daumé III (Universitas Maryland), memulai ceramahnya dengan menjelaskan bahwa model AI harus dikembangkan untuk membantu orang melakukan hal-hal yang ingin mereka lakukan; menambah pekerjaan manusia, bukan mengotomatisasi. Visi otomatisasi ini telah menyebar ke masyarakat sejak tahun 60an. Daripada membantu orang bermain catur dengan lebih baik, para ilmuwan merancang sebuah sistem yang bisa bermain catur sendiri.

Filosofi ini tidak akan berhasil; AI saat ini masih layak diberitakan karena ia cukup cerdas untuk melakukan suatu tugas sendiri. Ini adalah inti dari AI. Sebelum menghabiskan waktu dan uang untuk mengotomatisasi suatu sistem, pertama-tama kita harus berhenti sejenak dan bertanya apakah ini demi kepentingan kita?

Daumé mendorong konsep augmentasi: bagaimana AI dapat digunakan sebagai alat? Sistem seperti kopilot Github meningkatkan produktivitas, tetapi meningkatkan produktivitas saja tidak cukup. Seorang pengguna sistem berseru bahwa sistem ini memungkinkan mereka fokus pada bagian pengkodean yang menyenangkan, yang jauh lebih sejalan dengan bagaimana AI seharusnya dibangun.

Peneliti AI tidak boleh menghilangkan bagian-bagian pekerjaan seseorang yang menyenangkan; mereka harus memprioritaskan penghapusan pekerjaan yang membosankan. Hal ini harus meningkatkan kehidupan manusia dan bukan hanya meningkatkan keuntungan perusahaan.

Dr. Daumé ikut menulis makalah yang mengangkat poin-poin ini, dan muncul argumen tandingan bahwa dari sudut pandang teknis, membangun sistem yang menggunakan teknologi pembelajaran mesin khususnya seringkali jauh lebih mudah untuk diotomatisasi daripada ditambah. Hal ini karena data yang diperlukan untuk melatih suatu sistem yang akan melatih suatu sistem mudah didapat. Kami menyediakan informasi ini dengan melakukan pekerjaan kami, dan mudah untuk melatih ML untuk meniru perilaku manusia. Jauh lebih sulit untuk mengajarkan suatu sistem untuk membantu seseorang menyelesaikan suatu tugas. Informasi ini tersebar di antara tinjauan literatur dari NSF, tulisan di selembar kertas oleh seorang programmer, dll. Data yang diperlukan untuk membantu manusia melakukan tugas tidak dicatat.

Aspek penting lainnya dalam membangun sistem yang bermanfaat adalah menanyakan kepada pengguna sistem apa yang akan berguna bagi kehidupan mereka. Misalnya, kebutuhan penyandang tunanetra sangat berbeda dengan kebutuhan penyandang awas (yang juga berbeda dengan kebutuhan penyandang awas). berpikir kebutuhan penyandang tunanetra adalah). Contoh yang dibagikan Dr. Daumé adalah bahwa sistem visual mungkin mengungkapkan bahwa suatu benda adalah sekaleng soda, tetapi orang buta biasanya dapat mengetahuinya sendiri. Bahan-bahan soda akan jauh lebih bermanfaat bagi mereka. Ada kesenjangan yang sangat besar antara kualitas respons sistem dalam memahami pertanyaan dan menjawab pertanyaan aksesibilitas, dan kesenjangan ini semakin melebar.

Contoh tambahan tentang pentingnya menentukan kebutuhan komunitas terlebih dahulu sebelum menciptakan teknologi untuk “membantu” mereka adalah moderasi konten. Banyak sukarelawan moderator konten terlibat dalam pekerjaan ini karena mereka ingin membuat dunia menjadi tempat yang lebih baik, dan membantu membangun komunitas yang mereka anggap penting. Ketika ditanya alat seperti apa yang mereka inginkan untuk membantu peran mereka, mereka sering kali tidak ingin pekerjaannya sepenuhnya otomatis, mereka hanya ingin bagian yang membosankan seperti mencari riwayat obrolan menjadi lebih mudah.

Daumé mengakhiri diskusi ini dengan contoh terakhir tentang ibunya yang menyukai mobil, yang menyukai mobil, dan menolak mengendarai mobil matic. Dia memilih transmisi manual, dan sangat penting baginya untuk memiliki pilihan itu. Orang harus memiliki kendali apakah mereka ingin tugas mereka diotomatisasi atau tidak.

Daumé melanjutkan pembicaraan dengan menawarkan alternatif terhadap pendekatan teknologi aksesibilitas saat ini. Misalnya, saat membuat alat seputar pengenalan bahasa isyarat, alih-alih mencari di internet untuk mencari video orang yang menandatangani (yang memiliki banyak masalah izin dan privasi, ditambah lagi sebagian besar video ini adalah video profesional dan tanpa kebisingan/gangguan latar belakang yang tidak berarti). (Itu tidak realistis), menjangkau komunitas dan memulai proyek yang memberdayakan mereka untuk mengirimkan video untuk melatih alat tersebut. Strategi yang mengutamakan komunitas seperti ini lebih etis dan bertanggung jawab, serta memberikan kontrol lebih besar kepada pengguna. 

LLM dan alat lainnya harus dikembangkan untuk memprioritaskan kegunaan, bukan kecerdasan, Dr. Daumé menyimpulkan. Semakin berguna, semakin dapat membantu orang melakukan sesuatu yang mereka tidak bisa atau tidak ingin lakukan, daripada mengotomatiskan sesuatu yang sudah dilakukan dengan baik dan dinikmati oleh orang lain.

Jonathan May (Institut Ilmu Informasi Universitas Southern California) menjadi pembicara berikutnya, dan ia memulai ceramahnya dengan merefleksikan tema konferensi: “Menuju Sains Tanpa Tembok.” Dia berpendapat bahwa meskipun perkembangan LLM baru-baru ini meruntuhkan tembok bagi sebagian orang, hal itu juga membangun tembok bagi banyak orang.

Dia pertama kali membahas bagaimana internet menghilangkan banyak hambatan dalam melakukan penelitian; ketika dia berusia 17 tahun dia bertanya-tanya mengapa Star Wars dan Lord of the Rings memiliki plot yang sangat mirip, dan dia harus pergi ke perpustakaan dan mencari buku yang berisi jawabannya. Dia melakukan penelitian yang berisiko tinggi namun sama sulitnya untuk tesis PhD-nya, namun di akhir masa studinya, ada halaman Wikipedia yang dibuat tentang topik tersebut, lalu pencarian di internet, dan sekarang penelitian tanpa mobil menjadi hal yang biasa.

Dr May melanjutkan dengan mengatakan bahwa dia merasa terhormat berada dalam demografi target audiens LLM. Dia tidak sering membuat kode dan tidak pernah mempelajari banyak keterampilan coding, tetapi ketika dia membutuhkannya untuk pekerjaannya, dia dapat meminta ChatGPT dan itu berfungsi dengan baik. 

Namun, ada banyak hambatan untuk membuat kegunaan LLM meluas:

  • Dinding Bahasa: Model berfungsi lebih baik jika semakin banyak data yang dilatih. Meskipun LLM komersial saat ini bersifat multibahasa, mereka lebih condong ke bahasa Inggris. Misalnya, ChatGPT dilatih dalam 92% bahasa Inggris. Lebih lanjut, data instruksi, yang merupakan “saus rahasia” LLM, sebagian besar berbahasa Inggris (96% dari ChatGPT misalnya). Saat ini hanya ada sedikit upaya untuk meningkatkan kinerja lintas bahasa dari model-model ini meskipun ada kesenjangan kinerja sistemik pada pengujian yang ada, hal ini masuk akal karena konsensus umum bahwa terjemahan mesin (MT) telah “terselesaikan” dan upaya harus difokuskan pada tugas-tugas lain.
  • Dinding Identitas: Jika Anda bertanya kepada ChatGPT apa yang harus Anda lakukan saat Natal, jawabannya berfokus pada berbagai aktivitas dan tradisi yang dapat Anda ikuti; tidak disebutkan bahwa Anda boleh pergi bekerja. LLM telah terbukti berperilaku berbeda ketika menggambarkan kelompok demografi yang berbeda, mengekspresikan lebih banyak sentimen negatif dan bahkan toksisitas dalam beberapa kasus. Ada kemungkinan kalimat stereotipikal dapat menimbulkan kerugian di komunitas seperti LGBTQ+ atau Yahudi; Secara keseluruhan terdapat banyak bias dan hal ini mempunyai konsekuensi dalam pengambilan keputusan yang dilakukan secara menyeluruh. Ada beberapa perlindungan yang sudah ada di dalamnya, dan pertanyaan penyelidikan yang lebih eksplisit cenderung tidak mendapatkan jawaban yang tidak tepat, namun model secara probabilistik lebih memilih pernyataan dan hasil yang stereotipikal, dan di situlah terdapat kerugian terutama ketika menggunakan model dalam kemampuan hilir di mana Anda tidak melihat dampaknya. output (yaitu kelayakan pinjaman). Ia mencontohkan LLM yang menunjukkan bias saat membuat wajah individu berdasarkan pekerjaannya; pekerjaan dengan gaji lebih rendah ditunjukkan pada perempuan dan kelompok minoritas, sedangkan pekerjaan dengan gaji lebih tinggi ditunjukkan pada laki-laki kulit putih.
  • Tembok Lingkungan (perangkat lunak): LLM memerlukan sejumlah besar energi untuk diproduksi dan dijalankan. Bahkan LM yang paling “sederhana” pun menggunakan energi tahunan 3x lebih banyak dibandingkan yang digunakan oleh satu orang. Terdapat juga kesenjangan data yang signifikan untuk model bahasa terbesar seperti ChatGPT, namun perusahaan pemiliknya secara jelas menolak akses terhadap konsumsi energi mereka.
  • Tembok Lingkungan (perangkat keras): Untuk memproduksi chip, yang dibutuhkan semua LLM, Anda memerlukan “bahan konflik” seperti tantalum (ditambang di Kongo), dan hafnium (ditambang di Senegal dan Rusia). Di AS, perusahaan seharusnya melaporkan jumlah mineral konflik yang mereka gunakan, namun AS secara terbuka menunjukkan penurunan penggunaan bahan-bahan tersebut, dan hal ini tidak benar. Selain itu, terdapat banyak masalah sosio-politik seperti Tiongkok yang membatasi germanium dan galium sebagai pembalasan terhadap pembatasan ekspor AS.

Dr. May mengungkapkan bahwa kategori-kategori ini mengungkapkan beberapa dari banyak masalah hilir atas kerugian yang disebabkan oleh LLM, dan contoh-contoh di mana masyarakat tidak mendapatkan manfaatnya. Memang ada kekhawatiran, namun ada juga peluang untuk melakukan penelitian dan/atau perubahan perilaku yang dapat mengurangi beberapa dampak buruk berikut:

  • Bahasa: Mencurahkan lebih banyak dana penelitian untuk multibahasa (bukan hanya terjemahan hegemonik ke dan dari bahasa Inggris).
  • Identitas: Penelitian bottom-up dan inklusif komunitas. Modifikasi dan pengujian model sebelum penerapan
  • Lingkungan: Pengembangan algoritma yang menggunakan lebih sedikit data dan mengubah lebih sedikit parameter (misalnya LoRA, adaptor, PO non-RL). Berhati-hatilah dalam hal komputasi dan tekankan keterbukaan pada tingkat peraturan 

Dr. May mengakhiri panel dengan mengulangi poin Dr. Daumé bahwa masyarakat harus mendapatkan manfaat sesuai dengan keinginan mereka saat berinteraksi dengan LLM, dan hal ini perlu menjadi perhatian utama pada tahap pengembangan.

Terima kasih banyak telah membaca, dan silakan saksikan besok untuk membaca rekap bagian tanya jawab sesi ini.

tempat_img

Intelijen Terbaru

tempat_img

Hubungi kami

Hai, yang di sana! Apa yang bisa saya bantu?