هوش داده های تولیدی

غول‌های فناوری اتحادیه اروپا در تلاش برای مهار غرب وحشی هوش مصنوعی هستند

تاریخ:

تحلیل و بررسی با نزدیک شدن به پایان سال 2023، سال هیاهوی هوش مصنوعی همانطور که شروع شده بود به پایان می رسید. مطابق با ارقام از PitchbookBig Tech در طول سال دو برابر بیشتر از گروه‌های سرمایه‌گذاری خطرپذیر برای معاملات با استارت‌آپ‌های هوش مصنوعی مولد هزینه کرد.

اما در دسامبر، قانونگذاران شروع به مهار نحوه توسعه و استقرار سیستم ها کردند. که در یک توافق موقت، پارلمان و شورای اتحادیه اروپا ممنوعیت کامل برخی از برنامه ها و تعهدات توسعه دهندگان هوش مصنوعی را پیشنهاد کردند که ریسک بالایی دارند.

در حالی که اتحادیه اروپا موفقیت خود را در تبدیل شدن به اولین حوزه قضایی که برنامه هایی برای قانون وضع می کند، در بوق و کرنا می کرد، Big Tech گریه می کرد.

دانشمند ارشد هوش مصنوعی متا گفت که تنظیم مدل های پایه ایده بدی است زیرا به طور موثر تحقیق و توسعه را تنظیم می کند. مطلقاً هیچ دلیلی برای آن وجود ندارد، به جز سناریوهای بسیار حدس و گمان و غیر محتمل. تنظیم محصولات خوب است. اما [تنظیم] تحقیق و توسعه مضحک است.» او در وب سایتی که قبلاً توییتر نامیده می شد نوشت.

با این حال، کارشناسان حقوقی خاطرنشان می‌کنند که با پیشرفت بحث‌ها، تصمیم‌گیری‌های زیادی وجود دارد و خیلی به جزئیات متن قانونی که هنوز منتشر نشده است بستگی دارد.

هنگامی که مذاکره کنندگان مجلس و شورا به توافق موقت در مورد قانون هوش مصنوعی دست یافتند، گفتند که سیستم های طبقه بندی بیومتریک را که ادعا می کنند افراد را به گروه هایی بر اساس سیاست، مذهب، گرایش جنسی و نژاد دسته بندی می کنند، ممنوع خواهند کرد. خراش دادن بدون هدف تصاویر صورت از اینترنت یا دوربین مدار بسته، تشخیص احساسات در محیط کار و موسسات آموزشی و امتیازدهی اجتماعی بر اساس رفتار یا ویژگی های شخصی نیز در لیست ممنوعه قرار گرفتند.

این پیشنهادها تعهداتی را نیز بر عهده سیستم های پرخطر می گذارد، از جمله وظیفه انجام ارزیابی تأثیر حقوق اساسی. شهروندان این حق را خواهند داشت که درباره سیستم های هوش مصنوعی شکایت کنند و درباره تصمیمات مبتنی بر سیستم های هوش مصنوعی پرخطر که بر حقوق آنها تأثیر می گذارد توضیحاتی دریافت کنند. اما این پیشنهادها برای سیستم‌های هوش مصنوعی عمومی (GPAI) - یا مدل‌های بنیادی - است که صنعت را عصبانی کرده است.

توافقنامه اتحادیه اروپا می گوید که توسعه دهندگان باید طیف وسیعی از وظایفی که سیستم های هوش مصنوعی می توانند انجام دهند و گسترش سریع قابلیت های آن را در نظر بگیرند. آنها باید به الزامات شفافیت همانطور که در ابتدا توسط پارلمان پیشنهاد شد، از جمله تهیه اسناد فنی، مطابقت با قانون حق چاپ اتحادیه اروپا، و انتشار خلاصه های دقیق در مورد محتوای مورد استفاده برای آموزش، پایبند باشند.

در عین حال، توسعه‌دهندگان باید بررسی‌های دقیق‌تری روی مدل‌های GPAI با تأثیر بالا با ریسک سیستمیک انجام دهند. اتحادیه اروپا اعلام کرد اگر این مدل‌ها معیارهای خاصی را داشته باشند، باید ارزیابی‌های مدل، ارزیابی و کاهش خطرات سیستمی، انجام آزمایش‌های متخاصم، گزارش به کمیسیون در مورد حوادث جدی، اطمینان از امنیت سایبری و گزارش در مورد بهره‌وری انرژی خود را انجام دهند. تا زمانی که استانداردهای هماهنگ اتحادیه اروپا منتشر نشود، GPAI با ریسک سیستماتیک ممکن است برای مطابقت با مقررات به کدهای عملی متکی باشد.

نیلز راوئر، شریک شرکت حقوقی Pinsent Masons متخصص در هوش مصنوعی و مالکیت معنوی، به ما گفت که توافق گسترده ای در مورد نیاز به قانون وجود دارد. این واقعیت که مقررات هوش مصنوعی وجود خواهد داشت توسط اکثر بازیگران تحت تأثیر بازار پذیرفته شده است. ایلان ماسک، و همچنین بسیاری از افراد دیگر خطر و فوایدی را که همزمان با هوش مصنوعی همراه است، می بینند، و من فکر می کنم که شما نمی توانید در این مورد بحث کنید: هوش مصنوعی باید در یک چارچوب محتاطانه هدایت شود، زیرا اگر این کار بیهوده باشد، می تواند کاملاً باشد. خطرناک."

با این حال، او گفت که دسته بندی متفاوت مدل های GPAI بسیار پیچیده است. آنها کار خود را با این دسته هوش مصنوعی پرخطر شروع کردند و هر چیزی که کمتر از خطر بالا باشد وجود دارد. هنگامی که ChatGPT ظاهر شد، آنها درگیر این بودند که آیا خطر بالایی دارد یا خیر. برای مثال، این مدل‌های هوش مصنوعی عمومی که زیربنای GPT 4.0 هستند، قوی‌ترین هستند. [قانون‌گذاران] متوجه شدند که این واقعاً بستگی به مکانی دارد که از آن استفاده می‌شود، چه خطر بالایی داشته باشد یا نه.»

یکی دیگر از کاربردهای هوش مصنوعی که قوانین پیشنهادی به آن پرداخته اند، شناسایی بیومتریک بلادرنگ است. اتحادیه اروپا قصد دارد این عمل را ممنوع کند، که قبلاً توسط پلیس به صورت محدود در بریتانیا به کار گرفته شده است، اما استثناهایی را نیز در نظر می گیرد. کاربران - به احتمال زیاد پلیس یا سازمان های اطلاعاتی - باید به یک قاضی یا مقام مستقل مراجعه کنند، اما می توانند از سیستم های بیومتریک بلادرنگ برای جستجوی قربانیان آدم ربایی، قاچاق یا بهره کشی جنسی استفاده کنند. جلوگیری از یک تهدید تروریستی خاص و فعلی یا بومی سازی یا شناسایی فردی که مظنون به ارتکاب یکی از فهرست جرایم خاص است نیز می تواند مستثنی باشد.

Guillaume Couneson، یکی از شرکای شرکت حقوقی Linklaters، گفت که اصولاً ممنوعیت بیومتریک زنده "یک بیانیه کاملاً قوی" است، اما استثناها می توانند به طور بالقوه بسیار گسترده باشند. «اگر در مورد شناسایی قربانی یا پیشگیری از تهدید است، آیا به این معنی است که نمی توانید آن را به طور مداوم انجام دهید؟ یا می توانید استدلال کنید که برای مثال در یک فرودگاه، همیشه یک خطر امنیتی وجود دارد، و بنابراین، شما همیشه از این نوع فناوری استفاده خواهید کرد؟

ما بدون خواندن متن واقعی نمی دانیم که آنها در آن نقطه به کجا رسیده اند. حتی ممکن است متن به اندازه کافی روشن نباشد که آن را تعیین کند، بنابراین ممکن است بحث‌های بیشتری داشته باشیم و به طور بالقوه حتی پرونده‌هایی که در نهایت به دیوان عدالت می‌رسند، داشته باشیم.» Reg.

Couneson اضافه کرد که قوانینی که برای توسعه دهندگان هوش مصنوعی با هدف عمومی وضع می شود ممکن است به اندازه برخی نگران نباشند، زیرا استثناهایی برای تحقیق و توسعه وجود دارد. "تا حدی، تحقیق در مورد هوش مصنوعی همچنان ممکن است و بدون قرار گرفتن در این دسته بندی های خطر. اگر شرکتی هستید که در حال بررسی [سیستم هوش مصنوعی است که] تحت یکی از این سناریوهای فهرست شده واجد شرایط باشد، چالش اصلی در اجرای موارد استفاده پرخطر خواهد بود. آن وقت است که لاستیک به جاده می خورد.»

وی خاطرنشان کرد: اتحادیه اروپا نیز درباره معرفیجعبه های شنی نظارتیبرای تقویت نوآوری در هوش مصنوعی.

استفاده از جعبه‌های شنی ممکن است راه خوبی برای کمک به شرکت‌ها باشد تا قبل از راه‌اندازی چیزی در بازار، گفتگوی مناسب با مقامات مربوطه داشته باشند. نوآوری در مذاکرات بسیار بازگشته است. این چیزی نیست که نادیده گرفته شود.»

در هر صورت، صنعت باید منتظر بماند تا اتحادیه اروپا متن کامل پیشنهاد قانونی را منتشر کند - که در پایان ژانویه یا اوایل فوریه پیش بینی می شود - قبل از اینکه جزئیات بیشتری را بدانند. ®

نقطه_img

جدیدترین اطلاعات

نقطه_img