Kecerdasan Data Generatif

Bug Kritis Membuat Platform AI Memeluk Wajah Menjadi 'Acar'

Tanggal:

Dua kerentanan keamanan penting dalam platform Hugging Face AI membuka pintu bagi penyerang yang ingin mengakses dan mengubah data dan model pelanggan.

Salah satu kelemahan keamanan memberi penyerang cara untuk mengakses model pembelajaran mesin (ML) milik pelanggan lain di platform Hugging Face, dan kelemahan kedua memungkinkan mereka menimpa semua gambar dalam registri kontainer bersama. Kedua kelemahan tersebut, yang ditemukan oleh para peneliti di Wiz, berkaitan dengan kemampuan penyerang untuk mengambil alih bagian infrastruktur inferensi Hugging Face.

Peneliti Wiz menemukan kelemahan dalam tiga komponen spesifik: API Inferensi Hugging Face, yang memungkinkan pengguna menelusuri dan berinteraksi dengan model yang tersedia di platform; Titik Akhir Inferensi Wajah Memeluk โ€” atau infrastruktur khusus untuk menerapkan model AI ke dalam produksi; dan Hugging Face Spaces, layanan hosting untuk menampilkan aplikasi AI/ML atau untuk bekerja secara kolaboratif dalam pengembangan model.

Masalah Dengan Acar

Saat memeriksa infrastruktur Hugging Face dan cara memanfaatkan bug yang mereka temukan, peneliti Wiz menemukan bahwa siapa pun dapat dengan mudah mengunggah model AI/ML ke platform, termasuk model yang didasarkan pada format Pickle. Acar adalah modul yang banyak digunakan untuk menyimpan objek Python dalam sebuah file. Meskipun yayasan perangkat lunak Python sendiri menganggap Pickle tidak aman, Pickle tetap populer karena kemudahan penggunaannya dan keakraban orang-orang dengannya.

โ€œRelatif mudah untuk membuat model PyTorch (Pickle) yang akan mengeksekusi kode arbitrer saat dimuat,โ€ menurut Wiz.

Peneliti Wiz memanfaatkan kemampuan untuk mengunggah model pribadi berbasis Pickle ke Hugging Face yang akan menjalankan shell terbalik saat memuat. Mereka kemudian berinteraksi dengannya menggunakan Inference API untuk mencapai fungsionalitas seperti shell, yang digunakan para peneliti untuk menjelajahi lingkungan mereka pada infrastruktur Hugging Face.

Latihan tersebut dengan cepat menunjukkan kepada para peneliti bahwa model mereka berjalan di sebuah pod di sebuah cluster di Amazon Elastic Kubernetes Service (EKS). Dari sana, para peneliti dapat memanfaatkan kesalahan konfigurasi umum untuk mengekstrak informasi yang memungkinkan mereka memperoleh hak istimewa yang diperlukan untuk melihat rahasia yang memungkinkan mereka mengakses penyewa lain di infrastruktur bersama.

Dengan Hugging Face Spaces, Wiz menemukan penyerang dapat mengeksekusi kode arbitrer selama waktu pembuatan aplikasi yang memungkinkan mereka memeriksa koneksi jaringan dari mesinnya. Tinjauan mereka menunjukkan satu koneksi ke registri kontainer bersama yang berisi gambar milik pelanggan lain yang mungkin telah mereka ubah.

โ€œDi tangan yang salah, kemampuan untuk menulis ke registri kontainer internal dapat berdampak signifikan terhadap integritas platform dan menyebabkan serangan rantai pasokan pada ruang pelanggan,โ€ kata Wiz.

Kata Memeluk Wajah itu telah sepenuhnya mengurangi risiko yang Wiz temukan. Sementara itu, perusahaan mengidentifikasi masalah tersebut setidaknya sebagian berkaitan dengan keputusannya untuk terus mengizinkan penggunaan file Pickle di platform Hugging Face, meskipun ada risiko keamanan yang terdokumentasi dengan baik terkait dengan file tersebut.  

โ€œFile acar telah menjadi inti dari sebagian besar penelitian yang dilakukan oleh Wiz dan publikasi terbaru lainnya oleh peneliti keamanan tentang Hugging Face,โ€ kata perusahaan itu. Mengizinkan penggunaan Pickle di Hugging Face merupakan โ€œbeban bagi tim teknik dan keamanan kami dan kami telah melakukan upaya signifikan untuk memitigasi risiko sekaligus mengizinkan komunitas AI menggunakan alat yang mereka pilih.โ€

Risiko yang Muncul Dengan AI-as-a-Service

Wiz menjelaskan penemuannya sebagai indikasi risiko yang perlu diwaspadai oleh organisasi ketika menggunakan infrastruktur bersama untuk menampung, menjalankan, dan mengembangkan model dan aplikasi AI baru, yang kemudian dikenal sebagai โ€œAI-as-a-service.โ€ Perusahaan menyamakan risiko dan mitigasi terkait dengan risiko yang dihadapi organisasi di lingkungan cloud publik dan merekomendasikan agar mereka juga menerapkan mitigasi yang sama di lingkungan AI.

โ€œOrganisasi harus memastikan bahwa mereka memiliki visibilitas dan tata kelola seluruh tumpukan AI yang digunakan dan menganalisis semua risiko dengan cermat,โ€ kata Wiz dalam sebuah blog minggu ini. Ini termasuk menganalisis โ€œpenggunaan model jahat, paparan data pelatihan, data sensitif dalam pelatihan, Kerentanan dalam AI SDK, paparan layanan AI, dan kombinasi risiko beracun lainnya yang mungkin dieksploitasi oleh penyerang,โ€ kata vendor keamanan tersebut.

Eric Schwake, direktur strategi keamanan siber di Salt Security, mengatakan ada dua masalah besar terkait penggunaan AI-as-a-service yang perlu diwaspadai oleh organisasi. โ€œPertama, pelaku ancaman dapat mengunggah model AI yang berbahaya atau mengeksploitasi kerentanan dalam tumpukan inferensi untuk mencuri data atau memanipulasi hasil,โ€ katanya. โ€œKedua, pelaku kejahatan dapat mencoba mengkompromikan data pelatihan, sehingga menghasilkan keluaran AI yang bias atau tidak akurat, yang umumnya dikenal sebagai peracunan data.โ€

Mengidentifikasi masalah-masalah ini dapat menjadi sebuah tantangan, terutama dengan semakin kompleksnya model AI, katanya. Untuk membantu mengelola sebagian risiko ini, penting bagi organisasi untuk memahami bagaimana aplikasi dan model AI mereka berinteraksi dengan API dan menemukan cara untuk mengamankannya. โ€œOrganisasi mungkin juga ingin mengeksplorasi AI yang Dapat Dijelaskan (XAI) untuk membantu membuat model AI lebih mudah dipahami,โ€ kata Schwake, โ€œdan hal ini dapat membantu mengidentifikasi dan memitigasi bias atau risiko dalam model AI.โ€

tempat_img

Intelijen Terbaru

tempat_img