هوش داده های تولیدی

Deepfakes Enterprises را تهدید می کند: آماده شدن برای حملات ایجاد شده توسط هوش مصنوعی

تاریخ:

در مقاله ای که توسط وال استریت ژورنال (WSJ) در 3 آوریل 2024 منتشر شد، افزایش هشداردهنده دیپ فیک ها و پتانسیل آنها برای ایجاد اختلال در مشاغل و موسسات مالی آشکار شد. همانطور که هوش مصنوعی (AI) به سرعت پیشرفت می کند و تولید صدا و تصویر را واقعی تر از همیشه می کند، بازیگران مخرب اکنون شرکت هایی را با فناوری پیشرفته دیپ فیک هدف قرار می دهند.

به گفته بیل کسیدی، مدیر ارشد اطلاعات نیویورک لایف، تماس‌های جعلی همیشه یک نگرانی بوده است، اما توانایی مدل‌های هوش مصنوعی برای تقلید از الگوهای صدای افراد و دادن دستورالعمل‌ها از طریق تلفن، خطرات کاملا جدیدی را به همراه دارد. گزارش WSJ نشان می‌دهد که بانک‌ها و ارائه‌دهندگان خدمات مالی جزو اولین کسانی هستند که با این تهدیدها مواجه می‌شوند، با کایل کاپل، رهبر ایالات متحده در حوزه سایبری در KPMG، بر سرعت سریعی که این فضا در حال تکامل است، تأکید می‌کند.

کسیدی به WSJ گفت:

"همیشه تماس‌های جعلی وجود داشت. اما توانایی این مدل‌های [هوش مصنوعی] اکنون برای تقلید از الگوهای صدای واقعی فردی که به شخصی با تلفن دستور می‌دهد تا کاری انجام دهد – این نوع خطرات کاملاً جدید هستند."


<!–

بلااستفاده

->

مقاله به نمایش اخیر توسط OpenAI اشاره می کند که فناوری را به نمایش می گذارد (موتور صدا) که می تواند صدای انسان را از یک کلیپ 15 ثانیه ای بازسازی کند. اگرچه OpenAI تصمیم گرفته است تا زمانی که خطرات سوء استفاده احتمالی بهتر شناخته نشود، این فناوری را به صورت عمومی منتشر نکند، پیامدهای آن واضح است. بازیگران بد می‌توانند از صدای تولید شده توسط هوش مصنوعی برای دستکاری نرم‌افزار احراز هویت صوتی مورد استفاده موسسات مالی برای تأیید مشتریان و اعطای دسترسی به حساب‌ها استفاده کنند. WSJ گزارش اشاره می کند که بانک چیس در طی آزمایشی قربانی صدای تولید شده توسط هوش مصنوعی شد، اگرچه بانک اعلام کرد که برای تکمیل تراکنش ها و درخواست های مالی به اطلاعات بیشتری نیاز است.

مقیاس مشکل دیپ فیک از گزارش پلتفرم تایید هویت سامساب مشهود است که نشان می دهد در سال 700 نسبت به سال قبل، حوادث دیپ فیک در بخش فین تک افزایش خیره کننده 2023 درصدی را نشان می دهد. در پاسخ، شرکت‌ها با جدیت تلاش می‌کنند تا اقدامات امنیتی قوی‌تری را برای مقابله با موج قریب‌الوقوع حملات مولد مبتنی بر هوش مصنوعی اجرا کنند.

برای مثال، Cassidy از نیویورک لایف، با گروه سرمایه گذاری خطرپذیر این شرکت برای شناسایی استارتاپ ها و فناوری های نوظهور که به طور خاص برای مبارزه با دیپ فیک طراحی شده اند، همکاری می کند. او پیشنهاد می کند که بهترین دفاع در برابر تهدیدات هوش مصنوعی مولد ممکن است نوعی خود هوش مصنوعی مولد باشد.

مقاله WSJ همچنین به سوء استفاده بالقوه از هوش مصنوعی برای تولید عکس های گواهینامه رانندگی جعلی برای راه اندازی حساب های آنلاین اشاره می کند. در پاسخ، الکس کریلز، مدیر ارشد دیجیتال بانک سیمونز، پروتکل های تأیید هویت را تنظیم کرده است. مشتریان به جای آپلود تصاویر از قبل موجود، اکنون باید از گواهینامه رانندگی خود از طریق برنامه بانک عکس بگیرند و در حالی که دستورات را دنبال می کنند تا به جهات مختلف نگاه کنند، سلفی بگیرند. هدف این رویکرد جلوگیری از استفاده از دیپ‌فیک‌های عمومی هوش مصنوعی است که ممکن است نتوانند این حرکات خاص را تقلید کنند.

Carriles چالش ایجاد تعادل بین ارائه یک تجربه کاربری یکپارچه و اجرای اقدامات امنیتی قوی برای جلوگیری از سوء استفاده مهاجمان از سیستم را تصدیق می کند. جالب اینجاست که همه بانک ها به یک اندازه نگران تهدید دیپ فیک نیستند. امی بردی، مدیر ارشد اجرایی KeyBank، با توجه به خطرات فعلی مرتبط با دیپ‌فیک، پذیرش تاخیری نرم‌افزار احراز هویت صوتی توسط بانک را یک شانس می‌داند. بردی بیان می‌کند که تا زمانی که ابزارهای مؤثرتری برای شناسایی جعل هویت در دسترس نباشد، اجرای نرم‌افزار احراز هویت صوتی را دنبال نخواهد کرد.

نقطه_img

جدیدترین اطلاعات

نقطه_img