هوش داده های تولیدی

گوگل هشدار می دهد که کاربران دستیار هوش مصنوعی می توانند یک "وابستگی عاطفی" به آنها ایجاد کنند - رمزگشایی

تاریخ:

دستیارهای شخصی مجازی مجهز به هوش مصنوعی در سراسر پلتفرم های فناوری، با هر شرکت فناوری بزرگ، در همه جا حاضر می شوند. افزودن هوش مصنوعی به خدمات آنها و ده ها مورد خدمات تخصصی در حال سقوط به بازار در حالی که بسیار مفید است، محققان گوگل می گویند که انسان ها می توانند از نظر عاطفی بیش از حد به آنها وابسته شوند که منجر به پیامدهای اجتماعی منفی زیادی شود.

جدید مقاله تحقیقاتی از آزمایشگاه تحقیقاتی DeepMind AI گوگل، مزایای بالقوه دستیاران هوش مصنوعی پیشرفته و شخصی شده برای تغییر جنبه های مختلف جامعه را برجسته می کند، و می گوید که آنها می توانند ماهیت کار، آموزش، و فعالیت های خلاقانه و همچنین نحوه برقراری ارتباط، هماهنگی و مذاکره را به طور اساسی تغییر دهند. با یکدیگر، در نهایت بر اینکه چه کسی می‌خواهیم باشیم و شویم، تأثیر بگذاریم.»

البته اگر توسعه هوش مصنوعی بدون برنامه ریزی مدبرانه به سرعت پیش برود، این تأثیر بزرگ، البته می تواند یک شمشیر دولبه باشد.

یک ریسک کلیدی؟ شکل گیری پیوندهای نامناسب نزدیک - که اگر چهره یا چهره ای شبیه انسان به دستیار ارائه شود، می تواند تشدید شود. این مقاله می‌گوید: «این عوامل مصنوعی حتی ممکن است محبت فرضی افلاطونی یا عاشقانه خود را نسبت به کاربر ابراز کنند و پایه و اساس ایجاد وابستگی عاطفی طولانی‌مدت به هوش مصنوعی را برای کاربران ایجاد کنند.

در صورت عدم کنترل، چنین پیوستی می تواند منجر به از دست دادن استقلال کاربر و از بین رفتن روابط اجتماعی شود زیرا هوش مصنوعی می تواند جایگزین تعامل انسانی شود.

این خطر صرفاً نظری نیست. حتی زمانی که هوش مصنوعی در وضعیتی ابتدایی قرار داشت، یک چت ربات هوش مصنوعی به اندازه کافی تأثیرگذار بود کاربر را متقاعد به خودکشی کند پس از یک گپ طولانی در سال 2023. هشت سال پیش، یک دستیار ایمیل مجهز به هوش مصنوعی به نام "امی اینگرام" به اندازه کافی واقع بینانه بود که برخی از کاربران را به ارسال یادداشت های عاشقانه ترغیب کرد و حتی سعی کنید در محل کار او را ملاقات کنید.

ایسون گابریل، دانشمند پژوهشگر در تیم تحقیقاتی اخلاق DeepMind و یکی از نویسندگان مقاله، به رمزگشایی درخواست نظر.

با این حال، گاربریل در توییتی هشدار داد که «اشکال دستیار شخصی و انسان‌مانند به طور فزاینده‌ای سؤالات جدیدی را در مورد انسان‌شناسی، حریم خصوصی، اعتماد و روابط مناسب با هوش مصنوعی مطرح می‌کنند».

گابریل گفت از آنجا که «میلیون‌ها دستیار هوش مصنوعی می‌توانند در سطح اجتماعی مستقر شوند که در آن با یکدیگر و با غیرکاربران تعامل داشته باشند»، گابریل گفت که او به نیاز به حفاظت بیشتر و رویکردی جامع‌تر به این پدیده اجتماعی جدید اعتقاد دارد.

مقاله تحقیقاتی همچنین اهمیت همسویی ارزش، ایمنی و استفاده نادرست در توسعه دستیارهای هوش مصنوعی را مورد بحث قرار می دهد. اگرچه دستیارهای هوش مصنوعی می توانند به کاربران کمک کنند تا رفاه خود را بهبود بخشند، خلاقیت خود را افزایش دهند و زمان خود را بهینه کنند، نویسندگان در مورد خطرات اضافی مانند ناهماهنگی با منافع کاربر و جامعه، تحمیل ارزش ها به دیگران، استفاده برای اهداف مخرب و آسیب پذیری هشدار دادند. به حملات خصمانه

برای مقابله با این خطرات، تیم DeepMind توسعه ارزیابی‌های جامع برای دستیاران هوش مصنوعی و سرعت بخشیدن به توسعه دستیاران هوش مصنوعی سودمند اجتماعی را توصیه می‌کند.

ما در حال حاضر در آغاز این عصر تغییرات تکنولوژیکی و اجتماعی هستیم. بنابراین، ما فرصتی داریم که اکنون - به عنوان توسعه‌دهندگان، محققین، سیاست‌گذاران و سهامداران عمومی - برای شکل دادن به دستیارهای هوش مصنوعی که می‌خواهیم در جهان ببینیم، عمل کنیم.»

ناهماهنگی هوش مصنوعی را می توان از طریق آموزش تقویتی از طریق بازخورد انسانی (RLHF) که برای آموزش مدل های هوش مصنوعی استفاده می شود، کاهش داد. کارشناسانی مانند پل کریستیانو، که تیم همترازی مدل زبان در OpenAI را اداره می کرد و اکنون مرکز تحقیقات غیرانتفاعی Alignment را رهبری می کند، هشدار می دهند که مدیریت نادرست روش های آموزش هوش مصنوعی می تواند به فاجعه ختم شود.

پل کریستیانو گفت: «من فکر می‌کنم شاید حدود 10 تا 20 درصد احتمال تصاحب هوش مصنوعی وجود داشته باشد، [با] تعداد زیادی [یا] بیشتر انسان‌ها کشته شوند. گفت: در پادکست Bankless سال گذشته. "من آن را کاملا جدی می گیرم."

ویرایش شده توسط رایان اوزاوا.

از اخبار ارزهای دیجیتال مطلع باشید، به‌روزرسانی‌های روزانه را در صندوق ورودی خود دریافت کنید.

نقطه_img

جدیدترین اطلاعات

نقطه_img

چت با ما

سلام! چگونه می توانم به شما کمک کنم؟