Kecerdasan Data Generatif

Melawan Penipuan Suara di Era AI

Tanggal:

KOMENTAR
Hanya audio tiga detik yang diperlukan untuk mengkloning suara. Vishing, atau penipuan suara, dengan cepat menjadi masalah yang banyak dari kita ketahui dengan baik, dan berdampak pada 15% populasi. Lebih dari tiga perempat korban berakhir kehilangan uang, menjadikan ini jenis penipuan palsu yang paling menguntungkan berdasarkan per orang, menurut AS Komisi Perdagangan Federal (FTC).

Ketika spoofing ID penelepon digabungkan dengan teknologi deepfake berbasis AI, penipu dapat, dengan biaya yang sangat kecil dan skala besar, menyamarkan nomor dan lokasi sebenarnya dan dengan sangat meyakinkan menyamar sebagai organisasi tepercaya, seperti bank atau dewan lokal, atau bahkan teman dan keluarga. .

Meskipun kecerdasan buatan (AI) menghadirkan segala macam ancaman baru, kemampuan memalsukan ID penelepon masih menjadi pintu masuk utama penipuan canggih. Hal ini juga menimbulkan tantangan serius dalam mengautentikasi panggilan asli. Mari kita selidiki dunia kriminal pemalsuan ID penelepon.

Apa yang Ada di Balik Meningkatnya Penipuan Suara?

Demokratisasi teknologi spoofing, seperti aplikasi spoofing, telah mempermudah pelaku kejahatan untuk menyamar sebagai ID penelepon yang sah, sehingga menyebabkan peningkatan aktivitas penipuan yang dilakukan melalui panggilan suara. Satu wartawan, yang mengaku dikenal karena sifatnya yang rasional dan teliti, menjadi korban penipuan canggih yang mengeksploitasi ketakutan dan kepeduliannya terhadap keselamatan keluarganya. Awalnya dihubungi melalui panggilan palsu yang tampaknya berasal dari Amazon, dia dipindahkan ke seseorang yang menyamar sebagai penyelidik FTC, yang dengan meyakinkan menyajikan kepadanya cerita palsu yang melibatkan pencurian identitas, pencucian uang, dan ancaman terhadap keselamatannya.

Kisah-kisah ini menjadi semakin umum. Masyarakat cenderung skeptis terhadap nomor yang dirahasiakan, internasional, atau tidak dikenal, namun jika mereka melihat nama perusahaan resmi muncul di ponsel mereka, mereka cenderung menjawab panggilan tersebut dengan cara yang akomodatif.

Selain spoofing, kami juga melihat peningkatan deepfake audio yang dihasilkan oleh AI. Tahun lalu di Kanada, penjahat scammed warga lanjut usia mendapatkan lebih dari $200,000 dengan menggunakan AI untuk meniru suara orang-orang terkasih yang berada dalam kesulitan. Seorang ibu di negara bagian Arizona, AS, juga menerima telepon putus asa dari putrinya yang berusia 15 tahun mengklaim dia telah diculik; panggilan tersebut ternyata dihasilkan oleh AI. Jika digabungkan dengan spoofing ID penelepon, deepfake ini hampir mustahil ditangkap oleh kebanyakan orang.

As AI generatif dan alat berbasis AI menjadi lebih mudah diakses, penipuan semacam ini menjadi lebih umum. Penjahat dunia maya tidak perlu melakukan kontak langsung untuk meniru suatu suara karena lebih dari separuh orang bersedia membagikan suara mereka dalam beberapa bentuk setidaknya sekali seminggu di media sosial, menurut McAfee. Mereka juga tidak memerlukan keterampilan digital yang luar biasa, karena aplikasi melakukan kerja keras untuk mengkloning suara berdasarkan klip audio pendek, seperti yang baru-baru ini disoroti oleh deepfake yang terkenal. Presiden AS Joe Biden dan penyanyi Taylor Swift.

Seluruh organisasi bisa menjadi korban penipuan suara, bukan hanya individu. Yang diperlukan hanyalah satu pelaku ancaman untuk meyakinkan seorang karyawan agar membagikan beberapa detail yang tampaknya tidak penting tentang bisnis mereka melalui telepon, yang kemudian digunakan untuk menghubungkan titik-titik tersebut dan memungkinkan penjahat dunia maya mendapatkan akses ke data sensitif. Tren ini sangat mengkhawatirkan di industri yang menganggap komunikasi suara merupakan komponen penting dalam interaksi pelanggan, seperti perbankan, layanan kesehatan, dan layanan pemerintah. Banyak bisnis mengandalkan panggilan suara untuk memverifikasi identitas dan mengotorisasi transaksi. Oleh karena itu, mereka sangat rentan terhadap penipuan suara yang disebabkan oleh AI.

Apa yang Dapat Kita Lakukan Tentang Ini?

Regulator, badan industri, dan dunia usaha semakin menyadari perlunya tindakan kolektif melawan penipuan suara. Hal ini dapat mencakup intelijen untuk lebih memahami pola penipuan di seluruh wilayah dan industri, pengembangan standar industri untuk meningkatkan keamanan panggilan suara, dan peraturan yang lebih ketat yang mengatur pelaporan untuk operator jaringan.

Regulator di seluruh dunia kini memperketat aturan seputar penipuan suara berbasis AI. Misalnya, Komisi Komunikasi Federal AS (FCC) telah melarang penggunaan robocall baik suara yang dihasilkan AI atau rekaman sebelumnya. Di Finlandia, pemerintah telah memberlakukan kewajiban baru pada operator telekomunikasi untuk mencegah spoofing ID penelepon dan pengalihan panggilan penipuan ke penerima. UE sedang menyelidiki tindakan serupa, terutama yang dilakukan oleh bank dan lembaga keuangan lainnya yang ingin menjaga keamanan nasabahnya. Dalam semua kasus, upaya sedang dilakukan untuk menutup pintu terhadap spoofing dan smishing ID penelepon (pesan teks palsu), yang sering kali menjadi pintu masuk bagi taktik berbasis AI yang lebih canggih.

Banyak alat deteksi menjanjikan yang sedang dikembangkan, secara teori, dapat mengurangi penipuan suara secara drastis. Ini termasuk biometrik suara, detektor deepfake, analisis deteksi anomali AI, blockchain, firewall sinyal, dan sebagainya. Namun, para pelaku kejahatan siber sangat mahir dalam melampaui dan mengecoh lompatan teknologi, sehingga hanya waktu yang akan menentukan mana yang terbaik.

Bagi bisnis dari semua ukuran dan sektor, kemampuan keamanan siber akan menjadi semakin penting bagi layanan telekomunikasi. Selain tingkat jaringan komunikasi, bisnis harus menetapkan kebijakan dan proses yang jelas, seperti autentikasi multifaktor yang menggunakan berbagai metode verifikasi.

Perusahaan juga harus meningkatkan kesadaran akan taktik penipuan yang paling umum. Pelatihan rutin bagi karyawan harus berfokus pada mengenali dan merespons penipuan, sementara pelanggan harus didorong untuk melakukan hal tersebut laporkan panggilan mencurigakan.

Di tingkat konsumen, regulator komunikasi Inggris, Ofcom, mengungkapkan bahwa lebih dari 41 juta orang menjadi sasaran panggilan atau SMS mencurigakan selama periode tiga bulan pada tahun 2022. Dengan kata lain, meskipun merek dan pemerintah telah mengulangi pesan bahwa bisnis yang sah tidak akan pernah meminta uang atau informasi sensitif selama proses tersebut. telepon, kewaspadaan terus-menerus diperlukan.

Ketersediaan alat kloning yang mudah dan meningkatnya tingkat kejahatan membuat para ahli seperti Electronic Frontier Foundation menyarankan agar masyarakat menyepakati kata sandi keluarga untuk memerangi upaya penipuan berbasis AI. Ini adalah solusi yang sangat rendah fi untuk tantangan teknologi tinggi.

tempat_img

Intelijen Terbaru

tempat_img

Hubungi kami

Hai, yang di sana! Apa yang bisa saya bantu?