Kecerdasan Data Generatif

Microsoft memperkenalkan teknologi deepfake yang terlalu bagus untuk dirilis

Tanggal:

Microsoft minggu ini mendemonstrasikan VASA–1, sebuah kerangka kerja untuk membuat video orang-orang yang berbicara dari gambar diam, sampel audio, dan skrip teks, dan mengklaim – memang benar – terlalu berbahaya untuk dipublikasikan.

Video-video yang dihasilkan oleh AI ini, yang membuat orang-orang dapat dianimasikan secara meyakinkan untuk mengucapkan kata-kata yang ditulis dalam naskah dengan suara yang dikloning, hanyalah sejenis video yang dibuat oleh Komisi Perdagangan Federal AS. memperingatkan tentang bulan lalu, setelah sebelumnya mengusulkan sebuah aturan untuk mencegah teknologi AI digunakan untuk penipuan peniruan identitas.

Tim Microsoft mengakui hal tersebut pengumuman, yang menjelaskan teknologi tersebut tidak dirilis karena pertimbangan etis. Mereka bersikeras bahwa mereka menyajikan penelitian untuk menghasilkan karakter interaktif virtual dan bukan untuk meniru identitas siapa pun. Oleh karena itu, tidak ada produk atau API yang direncanakan.

“Penelitian kami berfokus pada menghasilkan keterampilan afektif visual untuk avatar AI virtual, yang bertujuan untuk penerapan positif,” kata para peneliti di Redmond. “Hal ini tidak dimaksudkan untuk membuat konten yang digunakan untuk menyesatkan atau menipu.

“Namun, seperti teknik pembuatan konten terkait lainnya, teknik ini masih berpotensi disalahgunakan untuk meniru identitas manusia. Kami menentang perilaku apa pun yang menciptakan konten yang menyesatkan atau berbahaya yang menampilkan orang sungguhan, dan tertarik untuk menerapkan teknik kami untuk meningkatkan deteksi pemalsuan.”

Kevin Surace, Ketua Token, bisnis otentikasi biometrik, dan sering menjadi pembicara tentang AI generatif, mengatakan Pendaftaran dalam email yang menyatakan bahwa meskipun sebelumnya telah ada demonstrasi teknologi berupa wajah yang dianimasikan dari bingkai diam dan file suara yang dikloning, demonstrasi Microsoft mencerminkan kecanggihan teknologi.

“Implikasinya terhadap personalisasi email dan komunikasi massa bisnis lainnya sungguh luar biasa,” ujarnya. “Bahkan menganimasikan gambar lama juga. Pada tingkat tertentu, hal ini hanya sekedar kesenangan dan pada sisi lain hal ini memiliki aplikasi bisnis yang solid yang akan kita semua gunakan dalam beberapa bulan dan tahun mendatang.”

“Kegembiraan” dari deepfake adalah 96 persen pornografi nonkonsensual dinilai [PDF] pada tahun 2019 oleh perusahaan keamanan siber Deeptrace.

Meskipun demikian, para peneliti Microsoft berpendapat bahwa kemampuan untuk menciptakan orang-orang yang tampak realistis dan mengungkapkan kata-kata ke dalam mulut mereka memiliki manfaat yang positif.

“Teknologi tersebut menjanjikan untuk memperkaya komunikasi digital, meningkatkan aksesibilitas bagi mereka yang memiliki gangguan komunikasi, mentransformasikan pendidikan, metode dengan bimbingan AI interaktif, dan memberikan dukungan terapeutik dan interaksi sosial dalam layanan kesehatan,” mereka mengusulkan dalam sebuah telaahan yang tidak mengandung kata “pornografi” atau “misinformasi”.

Meskipun video yang dihasilkan AI dapat dikatakan tidak sama dengan deepfake, namun deepfake adalah video yang dihasilkan didefinisikan melalui manipulasi digital dan bukan metode generatif, pembedaan tersebut menjadi tidak penting ketika hasil palsu yang meyakinkan dapat dibuat tanpa pencangkokan potong-dan-tempel.

Ketika ditanya apa pendapatnya tentang fakta bahwa Microsoft tidak merilis teknologi ini ke publik karena takut disalahgunakan, Surace menyatakan keraguannya tentang kelayakan pembatasan tersebut.

“Microsoft dan lainnya telah menahan diri untuk saat ini sampai mereka menyelesaikan masalah privasi dan penggunaan,” katanya. “Bagaimana seseorang mengatur siapa yang menggunakan ini untuk alasan yang benar?”

Surace menambahkan, sudah ada model open source yang sama canggihnya EMO. “Seseorang dapat mengambil kode sumber dari GitHub dan membangun layanan di sekitarnya yang dapat menyaingi keluaran Microsoft,” katanya. “Karena sifat ruang yang open source, pengaturannya tidak mungkin dilakukan.”

Meskipun demikian, negara-negara di seluruh dunia berupaya mengatur orang-orang yang membuat AI. Kanada, Tiongkok, Dan UK, di antara negara-negara lain, semuanya memiliki peraturan yang dapat diterapkan pada deepfake, yang beberapa di antaranya memenuhi tujuan politik yang lebih luas. Inggris baru minggu ini membuatnya ilegal untuk membuat gambar deepfake yang eksplisit secara seksual tanpa persetujuan. Pembagian gambar seperti itu sudah dilarang berdasarkan Undang-Undang Keamanan Online Inggris tahun 2023.

Pada bulan Januari, sekelompok anggota parlemen AS bipartisan diperkenalkan Undang-undang Disrupt Explicit Forged Images and Non-Consensual Edits Act of 2024 (DEFIANCE Act), sebuah rancangan undang-undang yang membuka jalan bagi korban gambar deepfake non-konsensual untuk mengajukan tuntutan perdata ke pengadilan.

Dan pada hari Selasa, 16 April, Komite Kehakiman Senat AS, Subkomite Privasi, Teknologi, dan Hukum mengadakan sebuah sidang berjudul “Pengawasan AI: Pemalsuan Pemilu.”

Dalam sambutannya, Rijul Gupta, CEO DeepMedia, sebuah bisnis pendeteksi deepfake, mengatakan:

[T]aspek deepfake yang paling mengkhawatirkan adalah kemampuan mereka untuk memberikan penyangkalan yang masuk akal kepada pelaku kejahatan, sehingga mereka dapat menganggap konten asli sebagai palsu. Terkikisnya kepercayaan publik ini menyerang inti tatanan sosial dan fondasi demokrasi kita. Otak manusia, yang dirancang untuk memercayai apa yang dilihat dan didengarnya, sangat rentan terhadap penipuan deepfake. Seiring dengan semakin canggihnya teknologi, teknologi ini mengancam akan melemahkan kesadaran bersama akan realitas yang mendasari masyarakat kita, menciptakan iklim ketidakpastian dan skeptisisme yang membuat masyarakat mempertanyakan kebenaran setiap informasi yang mereka temukan.

Tapi pikirkan aplikasi pemasarannya. ®

tempat_img

Intelijen Terbaru

tempat_img

Hubungi kami

Hai, yang di sana! Apa yang bisa saya bantu?