Kecerdasan Data Generatif

Bagaikan Anak Kecil, AI yang Terinspirasi Otak Ini Bisa Menjelaskan Alasannya

Tanggal:

Anak-anak adalah ilmuwan alam. Mereka mengamati dunia, membentuk hipotesis, dan mengujinya. Akhirnya, mereka belajar menjelaskan alasan mereka (yang terkadang sangat lucu).

AI, tidak terlalu banyak. Tidak ada keraguan bahwa pembelajaran mendalam—sejenis pembelajaran mesin yang secara umum didasarkan pada otak—telah mengubah teknologi secara dramatis. Mulai dari memprediksi pola cuaca ekstrem hingga merancang obat baru atau mendiagnosis kanker yang mematikan, AI semakin terintegrasi dalam hal ini batas-batas ilmu pengetahuan.

Namun pembelajaran mendalam memiliki kelemahan besar: Algoritme tidak dapat membenarkan jawaban mereka. Sering disebut masalah “kotak hitam”, ketidakjelasan ini menghalangi penggunaannya dalam situasi berisiko tinggi, seperti dalam bidang kedokteran. Pasien menginginkan penjelasan ketika didiagnosis menderita penyakit yang mengubah hidup. Untuk saat ini, algoritme berbasis pembelajaran mendalam—meskipun memiliki akurasi diagnostik yang tinggi—tidak dapat memberikan informasi tersebut.

Untuk membuka kotak hitam tersebut, tim dari University of Texas Southwestern Medical Center memanfaatkan pikiran manusia untuk mendapatkan inspirasi. Di dalam sebuah pelajaran in Ilmu Komputasi Alam, mereka menggabungkan prinsip-prinsip dari studi jaringan otak dengan pendekatan AI yang lebih tradisional yang mengandalkan landasan yang dapat dijelaskan.

AI yang dihasilkan bertindak seperti anak kecil. Ini memadatkan berbagai jenis informasi menjadi “hub.” Setiap hub kemudian ditranskripsikan menjadi pedoman pengkodean untuk dibaca manusia—CliffsNotes untuk pemrogram yang menjelaskan kesimpulan algoritme tentang pola yang ditemukan dalam data dalam bahasa Inggris sederhana. Itu juga dapat menghasilkan kode pemrograman yang sepenuhnya dapat dieksekusi untuk dicoba.

Dijuluki “penyulingan mendalam”, AI bekerja seperti ilmuwan ketika ditantang dengan berbagai tugas, seperti soal matematika yang sulit dan pengenalan gambar. Dengan mengobrak-abrik data, AI menyaringnya menjadi algoritma langkah demi langkah yang dapat mengungguli algoritma yang dirancang manusia.

“Penyulingan mendalam mampu menemukan prinsip-prinsip umum yang melengkapi keahlian manusia,” menulis tim di makalah mereka.

Kertas tipis

AI terkadang melakukan kesalahan di dunia nyata. Ambil robotaksis. Tahun lalu, beberapa orang berulang kali terjebak di lingkungan San Francisco—mengganggu penduduk setempat, namun tetap saja mereka tertawa. Yang lebih serius lagi, kendaraan tanpa pengemudi menghalangi lalu lintas dan ambulans, serta dalam satu kasus, sangat merugikan pejalan kaki.

Dalam bidang kesehatan dan penelitian ilmiah, bahayanya juga tinggi.

Terkait domain berisiko tinggi ini, algoritme “membutuhkan toleransi kesalahan yang rendah”, Dr. Joseph Bakarji dari American University of Beirut, yang tidak terlibat dalam penelitian ini, menulis dalam artikel pendamping tentang pekerjaan itu.

Hambatan bagi sebagian besar algoritme pembelajaran mendalam adalah ketidakjelasannya. Mereka terstruktur sebagai jaringan berlapis-lapis. Dengan menerima banyak sekali informasi mentah dan menerima umpan balik yang tak terhitung jumlahnya, jaringan menyesuaikan koneksinya untuk pada akhirnya menghasilkan jawaban yang akurat.

Proses ini adalah inti dari pembelajaran mendalam. Namun hal ini akan sulit dilakukan jika tidak ada cukup data atau jika tugasnya terlalu rumit.

Kembali pada tahun 2021, tim mengembangkan AI yang mengambil pendekatan berbeda. Disebut penalaran “simbolis”, jaringan saraf mengkodekan aturan dan pengalaman eksplisit dengan mengamati data.

Dibandingkan dengan pembelajaran mendalam, model simbolik lebih mudah ditafsirkan orang. Bayangkan AI sebagai sekumpulan balok Lego, masing-masing mewakili suatu objek atau konsep. Mereka bisa bersatu dengan cara yang kreatif, namun koneksinya mengikuti serangkaian aturan yang jelas.

AI itu sendiri kuat namun rapuh. Ini sangat bergantung pada pengetahuan sebelumnya untuk menemukan landasan. Ketika ditantang dengan situasi baru tanpa pengalaman sebelumnya, ia tidak dapat berpikir di luar kebiasaan—dan ia gagal.

Di sinilah ilmu saraf berperan. Tim ini terinspirasi oleh penghubung, yang merupakan model bagaimana berbagai wilayah otak bekerja sama. Dengan menyatukan konektivitas ini dengan penalaran simbolik, mereka menciptakan AI yang memiliki dasar yang kuat dan dapat dijelaskan, namun juga dapat beradaptasi secara fleksibel ketika menghadapi masalah baru.

Dalam beberapa pengujian, model “neurokognitif” mengalahkan jaringan saraf dalam lainnya dalam tugas-tugas yang memerlukan penalaran.

Namun apakah data dapat dipahami dan algoritma merekayasa untuk menjelaskannya?

Sentuhan Manusia

Salah satu bagian tersulit dalam penemuan ilmiah adalah mengamati data yang berisik dan menyaring kesimpulan. Proses inilah yang menghasilkan bahan dan pengobatan baru, pemahaman biologi yang lebih mendalam, dan wawasan tentang dunia fisik kita. Seringkali, ini merupakan proses berulang yang memakan waktu bertahun-tahun.

AI mungkin dapat mempercepat dan berpotensi menemukan pola yang luput dari pikiran manusia. Misalnya, pembelajaran mendalam sangat berguna dalam memprediksi struktur protein, namun alasannya dalam memprediksi struktur tersebut sulit untuk dipahami.

“Bisakah kita merancang algoritma pembelajaran yang menyaring observasi menjadi aturan sederhana dan komprehensif seperti yang biasa dilakukan manusia?” tulis Bakarji.

Studi baru ini mengambil model neurokognitif yang ada pada tim dan memberinya bakat tambahan: Kemampuan menulis kode.

Disebut penyulingan mendalam, AI mengelompokkan konsep-konsep serupa, dengan setiap neuron buatan mengkodekan konsep tertentu dan hubungannya dengan konsep lain. Misalnya, satu neuron mungkin mempelajari konsep kucing dan mengetahui perbedaannya dengan anjing. Tipe lain menangani variabilitas ketika ditantang dengan gambar baru—misalnya, seekor harimau—untuk menentukan apakah ia lebih mirip kucing atau anjing.

Neuron buatan ini kemudian disusun menjadi sebuah hierarki. Dengan setiap lapisan, sistem semakin membedakan konsep dan akhirnya menemukan solusi.

Alih-alih menggunakan AI untuk mengolah data sebanyak mungkin, pelatihan ini dilakukan selangkah demi selangkah—hampir seperti mengajar balita. Hal ini memungkinkan untuk mengevaluasi alasan AI saat ia secara bertahap memecahkan masalah baru.

Dibandingkan dengan pelatihan jaringan saraf standar, aspek yang cukup jelas dibangun ke dalam AI, jelas Bakarji.

Dalam sebuah pengujian, tim menantang AI dengan video game klasik—Conway's Game of Life. Pertama kali dikembangkan pada tahun 1970-an, permainan ini tentang menumbuhkan sel digital menjadi berbagai pola dengan serangkaian aturan tertentu (cobalah sendiri di sini). Dilatih berdasarkan data simulasi permainan, AI mampu memprediksi hasil potensial dan mengubah alasannya menjadi pedoman yang dapat dibaca manusia atau kode pemrograman komputer.

AI juga bekerja dengan baik dalam berbagai tugas lainnya, seperti mendeteksi garis dalam gambar dan memecahkan masalah matematika yang sulit. Dalam beberapa kasus, ini menghasilkan kode komputer kreatif yang mengungguli metode yang sudah ada—dan mampu menjelaskan alasannya.

Penyulingan mendalam dapat menjadi pendorong bagi ilmu fisika dan biologi, di mana komponen sederhana akan menghasilkan sistem yang sangat kompleks. Salah satu potensi penerapan metode ini adalah sebagai rekan ilmuwan bagi para peneliti yang menguraikan fungsi DNA. Sebagian besar DNA kita adalah “materi gelap”, sehingga kita tidak tahu apa—jika ada—peran yang dimilikinya. AI yang dapat dijelaskan berpotensi menghancurkan rangkaian genetik dan membantu ahli genetika mengidentifikasi mutasi langka yang menyebabkan penyakit bawaan yang mematikan.

Di luar penelitian, tim sangat antusias dengan prospek kolaborasi AI-manusia yang lebih kuat.

"Pendekatan neurosimbolik berpotensi memungkinkan kemampuan pembelajaran mesin yang lebih mirip manusia,” tulis tim tersebut.

Bakarji setuju. Studi baru ini “melampaui kemajuan teknis, namun juga menyentuh tantangan etika dan sosial yang kita hadapi saat ini.” Penjelasan dapat berfungsi sebagai pagar pembatas, membantu sistem AI menyelaraskan dengan nilai-nilai kemanusiaan saat mereka dilatih. Untuk aplikasi yang berisiko tinggi, seperti perawatan medis, hal ini dapat membangun kepercayaan.

Untuk saat ini, algoritme bekerja paling baik saat menyelesaikan masalah yang dapat dipecah menjadi konsep. Itu tidak dapat menangani data berkelanjutan, seperti streaming video.

Itu adalah langkah selanjutnya dalam penyulingan mendalam, tulis Bakarji. Hal ini “akan membuka kemungkinan-kemungkinan baru dalam komputasi ilmiah dan penelitian teoretis.”

Gambar Kredit: 7AV 7AV / Unsplash 

tempat_img

Intelijen Terbaru

tempat_img