Kecerdasan Data Generatif

Tiga Masalah Privasi Data Teratas yang Dihadapi AI Saat Ini – The Daily Hodl

Tanggal:

Postingan Tamu HodlX  Kirimkan Posting Anda

 

AI (kecerdasan buatan) telah menyebabkan kegembiraan besar di kalangan konsumen dan bisnis - didorong oleh keyakinan yang kuat bahwa LLM (model bahasa besar) dan alat seperti ChatGPT akan mengubah cara kita belajar, bekerja, dan hidup.

Namun seperti pada masa-masa awal internet, pengguna langsung terjun tanpa mempertimbangkan bagaimana data pribadi mereka digunakan - Adan dampaknya terhadap privasi mereka.

Ada banyak sekali contoh pelanggaran data dalam bidang AI. Pada bulan Maret 2023, OpenAI untuk sementara menggunakan ChatGPT Pengunjung setelah kesalahan 'signifikan' berarti pengguna dapat melihat riwayat percakapan orang asing.

Bug yang sama berarti informasi pembayaran pelanggan - termasuk nama, alamat email, dan sebagian nomor kartu kredit - juga berada dalam domain publik.

Pada bulan September 2023, data Microsoft sebesar 38 terabyte secara tidak sengaja terhapus. bocor oleh seorang karyawan, dan pakar keamanan siber memperingatkan bahwa hal ini dapat memungkinkan penyerang menyusup ke model AI dengan kode berbahaya.

Para peneliti juga telah mampu melakukannya memanipulasi Sistem AI untuk mengungkapkan catatan rahasia.

Hanya dalam beberapa jam, sebuah kelompok bernama Robust Intelligence mampu mengumpulkan informasi identitas pribadi dari perangkat lunak Nvidia dan mengabaikan pengamanan yang dirancang untuk mencegah sistem mendiskusikan topik tertentu.

Pembelajaran telah diperoleh dari semua skenario ini, namun setiap pelanggaran dengan jelas menggambarkan tantangan yang perlu diatasi agar AI menjadi kekuatan yang dapat diandalkan dan dipercaya dalam kehidupan kita.

Gemini, chatbot Google, bahkan mengakui bahwa semua percakapan diproses oleh manusia reviewer - menggarisbawahi kurangnya transparansi dalam sistemnya.

“Jangan masukkan apa pun yang Anda tidak ingin ditinjau atau digunakan,” kata peringatan yang memperingatkan pengguna.

AI dengan cepat berkembang melampaui sekadar alat yang digunakan siswa untuk mengerjakan pekerjaan rumah atau yang diandalkan wisatawan untuk mendapatkan rekomendasi selama perjalanan ke Roma.

Hal ini semakin diandalkan untuk diskusi sensitif - dan memberikan segalanya mulai dari pertanyaan medis hingga jadwal kerja kami.

Oleh karena itu, penting untuk mengambil langkah mundur dan merenungkan tiga masalah privasi data utama yang dihadapi AI saat ini, dan mengapa hal tersebut penting bagi kita semua.

1. Perintah tidak bersifat pribadi

Alat seperti ChatGPT menghafal percakapan sebelumnya untuk merujuk kembali nanti. Meskipun hal ini dapat meningkatkan pengalaman pengguna dan membantu melatih LLM, hal ini memiliki risiko.

Jika suatu sistem berhasil diretas, ada bahaya nyata bahwa petunjuknya akan terekspos di forum publik.

Detail yang berpotensi memalukan dari riwayat pengguna, serta informasi sensitif secara komersial, dapat bocor ketika AI digunakan untuk tujuan kerja.

Seperti yang telah kita lihat dari Google, semua kiriman juga dapat diperiksa dengan cermat oleh tim pengembangannya.

Samsung mengambil tindakan mengenai hal ini pada Mei 2023 ketika melarang karyawan menggunakan alat AI generatif sama sekali. Itu terjadi setelah seorang karyawan upload kode sumber rahasia ke ChatGPT.

Raksasa teknologi ini khawatir bahwa informasi ini akan sulit diambil dan dihapus, yang berarti IP (kekayaan intelektual) dapat disebarluaskan ke masyarakat luas.

Apple, Verizon, dan JPMorgan telah mengambil tindakan serupa, dengan laporan yang menunjukkan bahwa Amazon melancarkan tindakan keras setelah tanggapan dari ChatGPT memiliki kesamaan dengan data internalnya sendiri.

Seperti yang Anda lihat, kekhawatiran ini tidak hanya mencakup apa yang akan terjadi jika ada pelanggaran data, namun juga prospek bahwa informasi yang dimasukkan ke dalam sistem AI dapat digunakan kembali dan didistribusikan ke khalayak yang lebih luas.

Perusahaan seperti OpenAI sudah melakukannya menghadapi berbagai tuntutan hukum di tengah tuduhan bahwa chatbot mereka dilatih menggunakan materi berhak cipta.

2. Model AI khusus yang dilatih oleh organisasi tidak bersifat pribadi

Ini membawa kita ke poin berikutnya - Meskipun individu dan perusahaan dapat membuat model LLM khusus berdasarkan sumber data mereka sendiri, model tersebut tidak akan sepenuhnya bersifat pribadi jika berada dalam batasan platform seperti ChatGPT.

Pada akhirnya tidak ada cara untuk mengetahui apakah masukan digunakan untuk melatih sistem besar ini - atau apakah informasi pribadi dapat digunakan pada model masa depan.

Bagaikan sebuah teka-teki, titik-titik data dari berbagai sumber dapat disatukan untuk membentuk wawasan yang komprehensif dan mendetail mengenai identitas dan latar belakang seseorang.

Platform besar mungkin juga gagal memberikan penjelasan mendetail tentang cara data ini disimpan dan diproses, serta ketidakmampuan untuk memilih tidak ikut serta dalam fitur yang membuat pengguna merasa tidak nyaman.

Selain merespons permintaan pengguna, sistem AI semakin memiliki kemampuan untuk membaca yang tersirat dan menyimpulkan segala sesuatu mulai dari lokasi seseorang hingga kepribadiannya.

Jika terjadi pelanggaran data, konsekuensi yang mengerikan mungkin terjadi. Serangan phishing yang sangat canggih dapat diatur - dan pengguna yang ditargetkan dengan informasi rahasia yang mereka masukkan ke dalam sistem AI.

Skenario potensial lainnya adalah data ini digunakan untuk mengambil identitas seseorang, baik melalui aplikasi untuk membuka rekening bank atau video deepfake.

Konsumen harus tetap waspada meskipun mereka sendiri tidak menggunakan AI. AI semakin banyak digunakan untuk mendukung sistem pengawasan dan meningkatkan teknologi pengenalan wajah di tempat umum.

Jika infrastruktur tersebut tidak dibangun di lingkungan yang benar-benar privat, kebebasan sipil dan privasi banyak warga negara dapat dilanggar tanpa sepengetahuan mereka.

3. Data pribadi digunakan untuk melatih sistem AI

Ada kekhawatiran bahwa sistem AI besar memperoleh kecerdasannya dengan meneliti halaman web yang tak terhitung jumlahnya.

Perkiraan menunjukkan 300 miliar kata digunakan untuk melatih ChatGPT - itu berarti 570 gigabyte data - dengan buku dan entri Wikipedia di antara kumpulan data.

Algoritme juga diketahui bergantung pada halaman media sosial dan komentar online.

Berdasarkan beberapa sumber ini, Anda dapat berargumentasi bahwa pemilik informasi ini memiliki ekspektasi yang wajar terhadap privasi.

Tapi inilah masalahnya - banyak alat dan aplikasi yang berinteraksi dengan kita setiap hari sudah sangat dipengaruhi oleh AI - dan bereaksi terhadap perilaku kita.

ID Wajah di iPhone Anda menggunakan AI untuk melacak perubahan halus pada penampilan Anda.

Algoritma TikTok dan Facebook yang didukung AI membuat rekomendasi konten berdasarkan klip dan postingan yang pernah Anda lihat sebelumnya.

Asisten suara seperti Alexa dan Siri juga sangat bergantung pada pembelajaran mesin.

Ada konstelasi startup AI yang memusingkan, dan masing-masing startup memiliki tujuan tertentu. Namun, ada beberapa yang lebih transparan dibandingkan yang lain mengenai cara data pengguna dikumpulkan, disimpan, dan diterapkan.

Hal ini sangat penting karena AI memberikan dampak di bidang perawatan kesehatan - mulai dari pencitraan medis dan diagnosis hingga pencatatan dan farmasi.

Pelajaran perlu dipetik dari bisnis internet yang terjebak dalam skandal privasi selama beberapa tahun terakhir.

Flo, aplikasi kesehatan wanita, dulunya terdakwa oleh regulator yang membagikan detail intim tentang penggunanya kepada Facebook dan Google pada tahun 2010-an.

Kemana kita pergi dari sini

AI akan memberikan dampak yang tak terhapuskan pada kehidupan kita di tahun-tahun mendatang. LLM menjadi lebih baik dari hari ke hari, dan kasus penggunaan baru terus bermunculan.

Namun, terdapat risiko nyata bahwa regulator akan kesulitan untuk mengimbanginya ketika industri bergerak dengan kecepatan yang sangat tinggi.

Artinya, konsumen harus mulai mengamankan data mereka sendiri dan memantau cara penggunaannya.

Desentralisasi dapat memainkan peran penting dalam hal ini dan mencegah data dalam jumlah besar jatuh ke tangan platform-platform besar.

DePIN (jaringan infrastruktur fisik terdesentralisasi) memiliki potensi untuk memastikan pengguna sehari-hari merasakan manfaat penuh AI tanpa mengganggu privasi mereka.

Perintah terenkripsi tidak hanya dapat memberikan hasil yang jauh lebih personal, namun LLM yang menjaga privasi akan memastikan pengguna memiliki kendali penuh atas data mereka setiap saat. - dan perlindungan terhadap penyalahgunaannya.


Chris Were adalah CEO Benar, jaringan data terdesentralisasi dan berdaulat yang memberdayakan individu untuk mengontrol identitas digital dan data pribadi mereka. Chris adalah seorang pengusaha teknologi yang berbasis di Australia yang telah menghabiskan lebih dari 20 tahun mengabdikan diri untuk mengembangkan solusi perangkat lunak inovatif.

 

Periksa Headline Terbaru di HodlX

Ikuti kami di Twitter Facebook Telegram

Check out Pengumuman Industri Terbaru  

Penafian: Pendapat yang dikemukakan di The Daily Hodl bukan nasihat investasi. Investor harus melakukan uji tuntas sebelum melakukan investasi berisiko tinggi dalam Bitcoin, cryptocurrency, atau aset digital. Harap diperhatikan bahwa transfer dan perdagangan Anda adalah risiko Anda sendiri, dan setiap kerugian yang mungkin Anda tanggung adalah tanggung jawab Anda. Daily Hodl tidak merekomendasikan pembelian atau penjualan cryptocurrency atau aset digital apa pun, juga The Daily Hodl bukan penasihat investasi. Harap dicatat bahwa The Daily Hodl berpartisipasi dalam pemasaran afiliasi.

Gambar yang Dihasilkan: Midjourney

tempat_img

Intelijen Terbaru

tempat_img

Hubungi kami

Hai, yang di sana! Apa yang bisa saya bantu?