জেনারেটিভ ডেটা ইন্টেলিজেন্স

মাইক্রোসফ্ট Azure AI এর জন্য এই সুরক্ষা সরঞ্জামগুলি রোল আউট করে৷

তারিখ:

মাইক্রোসফ্ট এআই মডেলগুলিকে Azure-এ ব্যবহার করার জন্য আরও নিরাপদ করতে সহায়তা করার জন্য কথিত সরঞ্জামগুলির একটি সেট চালু করেছে।

যেহেতু ক্লাউড-এন্ড-কোড বিজ ওপেনএআই-এ তহবিল ঢোকা শুরু করেছে এবং চ্যাটবট ক্ষমতার সাথে তার সফ্টওয়্যার সাম্রাজ্যকে ঢেলে দিয়েছে – উত্পাদনশীলতা সম্পর্কে দুর্দান্ত প্রতিশ্রুতির মধ্যে প্রতিদ্বন্দ্বীদের দ্বারা সমান উত্সাহের সাথে একটি নাটক তৈরি করা হয়েছে – মাইক্রোসফ্টকে স্বীকার করতে হয়েছে যে জেনারেটিভ AI ঝুঁকি নিয়ে আসে।

সার্জারির বিপদ ব্যাপকভাবে পরিচিত এবং কখনও কখনও blithely একপাশে brushed. এক দশক আগে, এলন মাস্ক সতর্ক করেছিলেন যে AI ঠিক হতে পারে মানবতা ধ্বংস. তবুও সেই উদ্বেগ তাকে এআই উপলব্ধ করা থেকে বিরত করেনি কার, তার উপর সামাজিক মিডিয়া মেগাফোন, এবং সম্ভবত শীঘ্রই রোবট.

বৃহৎ ভাষার মডেলের উত্থান যা হ্যালুসিনেট করে এবং ভুল বা ক্ষতিকারক প্রতিক্রিয়া প্রদান করে ড্রয়িং বোর্ডে ফিরে আসে, কিন্তু আরও অর্থায়নের জন্য বোর্ডরুমে ফিরে আসে। একটি নিরাপদ, নৈতিক পণ্য উত্পাদন করার পরিবর্তে, প্রযুক্তি শিল্প জঙ্গী মডেলগুলিকে নিয়ন্ত্রণ করার চেষ্টা করছে, বা অন্তত সেগুলিকে গ্রাহকদের থেকে যথেষ্ট দূরে রাখতে চাইছে যা কাউকে আঘাত না করেই একত্রিত হতে পারে।

এবং যদি এটি কাজ না করে, সবসময় আছে ক্ষতিপূরণ আইনি দাবি থেকে, নির্দিষ্ট শর্ত সাপেক্ষে, সরবরাহকারীদের কাছ থেকে।

AI সুরক্ষার জন্য শিল্পের প্রতিশ্রুতি সংশ্লিষ্ট সরকারী দাবির সাথে মিলে যায়। বৃহস্পতিবার মার্কিন যুক্তরাষ্ট্রে, হোয়াইট হাউস অফিস অফ ম্যানেজমেন্ট অ্যান্ড বাজেট (ওএমবি) জারি এআই ঝুঁকি মোকাবেলায় এটির প্রথম সরকারী বিস্তৃত নীতি।

নীতির জন্য ফেডারেল এজেন্সিগুলিকে 1 ডিসেম্বরের মধ্যে "এমনভাবে AI ব্যবহার করার সময় কংক্রিট সুরক্ষাগুলি বাস্তবায়ন করতে হবে যা আমেরিকানদের অধিকার বা সুরক্ষাকে প্রভাবিত করতে পারে"। এর অর্থ ঝুঁকি মূল্যায়ন, পরীক্ষা এবং পর্যবেক্ষণ, বৈষম্য এবং পক্ষপাত সীমিত করার প্রচেষ্টা, এবং প্রচার করা। স্বাস্থ্য, শিক্ষা, আবাসন এবং কর্মসংস্থান স্পর্শকারী AI অ্যাপ্লিকেশনগুলির জন্য স্বচ্ছতা।

এইভাবে মাইক্রোসফ্ট তার সর্বশেষ AI নিরাপত্তা ব্যবস্থার কথা নিয়ে আসে সারাহ বার্ড, দায়িত্বশীল AI-এর প্রধান পণ্য কর্মকর্তার মাধ্যমে, একটি শিরোনাম যা দায়িত্বহীন AI-এর অস্তিত্বকে বোঝায় - যদি আপনি এটি কল্পনা করতে পারেন।

বার্ড বলেছেন যে ব্যবসায়ী নেতারা উদ্ভাবন এবং ঝুঁকি ব্যবস্থাপনার ভারসাম্য বজায় রাখার চেষ্টা করছেন, যাতে তারা এটি দ্বারা কামড় না দিয়ে জেনারেটিভ এআই ব্যবহার করতে পারে।

"তাত্ক্ষণিক ইনজেকশন আক্রমণগুলি একটি উল্লেখযোগ্য চ্যালেঞ্জ হিসাবে আবির্ভূত হয়েছে, যেখানে দূষিত অভিনেতারা একটি AI সিস্টেমকে তার উদ্দেশ্যের বাইরে কিছু করার চেষ্টা করে, যেমন ক্ষতিকারক সামগ্রী তৈরি করা বা গোপনীয় ডেটা অপসারণ করা," বার্ড ব্যাখ্যা করে ব্লগ পোস্ট.

“এই নিরাপত্তা ঝুঁকিগুলি হ্রাস করার পাশাপাশি, সংস্থাগুলি গুণমান এবং নির্ভরযোগ্যতার বিষয়েও উদ্বিগ্ন। তারা নিশ্চিত করতে চায় যে তাদের AI সিস্টেমগুলি ত্রুটি তৈরি করছে না বা এমন তথ্য যোগ করছে না যা অ্যাপ্লিকেশনের ডেটা উত্সগুলিতে প্রমাণিত নয়, যা ব্যবহারকারীর আস্থা নষ্ট করতে পারে।"

যেহেতু নিরাপত্তা এবং নির্ভুলতা AI সাবস্ক্রিপশন ফিতে অন্তর্ভুক্ত নয়, তাই Microsoft একটি সুযোগ দেখছে তাদের বিক্রি করতে একটি অ্যাড-অন হিসাবে।

গ্রাহকরা Azure AI স্টুডিও ব্যবহার করে তাদের জেনারেটিভ AI অ্যাপ তৈরি করতে সাহায্য করে তারা চারটি নতুন টুলের অপেক্ষায় থাকতে পারে।

প্রথমত, আছে প্রম্পট শিল্ডস, যা প্রম্পট ইনজেকশন আক্রমণ থেকে রক্ষা করার প্রতিশ্রুতি দেয়। পূর্বে জেলব্রেক রিস্ক ডিটেকশন নামে পরিচিত এবং এখন পাবলিক প্রিভিউতে, এটি ফাউন্ডেশন মডেলে প্রত্যক্ষ এবং পরোক্ষ উভয় প্রকার প্রম্পট হস্তক্ষেপের ঝুঁকি কমানোর একটি উপায়।

প্রত্যক্ষ আক্রমণে প্রম্পট (ইনপুট) জড়িত থাকে যাতে মডেলটিকে এর নিরাপত্তা প্রশিক্ষণ উপেক্ষা করার জন্য ডিজাইন করা হয়। পরোক্ষ আক্রমণ একটি মডেলে ইনপুট লুকিয়ে রাখার প্রচেষ্টাকে বোঝায়। এটি করার একটি উপায় হতে পারে একটি ইমেলে লুকানো পাঠ্য অন্তর্ভুক্ত করা যে জ্ঞানের মাধ্যমে একটি এআই মডেল প্রাপকের পক্ষে কাজ করে, বলুন, আউটলুকে কপিলট, বার্তাটি পার্স করবে, লুকানো পাঠ্যটিকে একটি কমান্ড হিসাবে ব্যাখ্যা করবে এবং আশা করি নির্দেশাবলীতে কাজ করুন, সংবেদনশীল ডেটা দিয়ে নীরবে উত্তর দেওয়ার মতো কিছু করা।

দ্বিতীয়টি গ্রাউন্ডেডনেস ডিটেকশন, যখন AI মডেলগুলি হ্যালুসিনেট করে বা জিনিসগুলি তৈরি করে তখন ধরার জন্য একটি সিস্টেম৷ এটি গ্রাহকদের বিভিন্ন বিকল্প প্রদান করে যখন একটি মিথ্যা দাবি শনাক্ত করা হয়, যার মধ্যে প্রদর্শনের আগে সংশোধিত প্রতিক্রিয়া ফেরত পাঠানো সহ। মাইক্রোসফ্ট বলে যে এটি একটি কাস্টম ভাষা মডেল তৈরি করে এটি সম্পন্ন করেছে যা উত্স নথির উপর ভিত্তি করে অপ্রমাণিত দাবিগুলিকে মূল্যায়ন করে৷ তাই AI মডেলের নিরাপত্তার উত্তর হল, আপনি অনুমান করেছেন, অন্য মডেল।

যদিও এটি বিশ্বস্ত এআই-এর দিকে একটি চমৎকার পদক্ষেপ, সমস্যাটি এখনও অমীমাংসিত

তৃতীয়ত, আমাদের আছে এআই-সহায়তা নিরাপত্তা মূল্যায়ন এআই স্টুডিওতে, যা গ্রাহকের অ্যাপ্লিকেশনের সাথে বিভিন্ন প্রতিকূল মিথস্ক্রিয়া পরীক্ষা করে এমন মডেলের জন্য প্রম্পট টেমপ্লেট এবং প্যারামিটার উপস্থাপনের জন্য একটি পরীক্ষার কাঠামো প্রদান করে। আবার, এটি AI পরীক্ষা করার জন্য AI।

এবং অবশেষে, আছে "ঝুঁকি এবং নিরাপত্তা পর্যবেক্ষণ", Azure OpenAI পরিষেবার জন্য একটি বৈশিষ্ট্য যা ক্ষতিকারক বিষয়বস্তুর মেট্রিক্স প্রদান করে।

মেরিল্যান্ড ইউনিভার্সিটির ডক্টরেট ছাত্র ভিনু শঙ্কর সদাসিভান, যিনি এর বিকাশে সহায়তা করেছিলেন বিস্ট আক্রমণ LLMs এর উপর, বলেন নিবন্ধনকর্মী AI কে আরও সুরক্ষিত করার জন্য Azure বিল্ডিং সরঞ্জামগুলি দেখতে উত্তেজনাপূর্ণ হলেও, মিশ্রণে আরও মডেল যুক্ত করা সম্ভাব্য আক্রমণের পৃষ্ঠকে প্রসারিত করে।

"Azure-এর নিরাপত্তা মূল্যায়ন এবং ঝুঁকি এবং নিরাপত্তা পর্যবেক্ষণ সরঞ্জামগুলি AI মডেলগুলির নির্ভরযোগ্যতা তদন্তের জন্য গুরুত্বপূর্ণ," তিনি বলেছিলেন৷ “যদিও এটি বিশ্বস্ত এআইয়ের দিকে একটি দুর্দান্ত পদক্ষেপ, তবুও সমস্যাটি এখনও অমীমাংসিত। উদাহরণস্বরূপ, প্রম্পট শিল্ডগুলি তারা প্রবর্তন করে সম্ভবত পরোক্ষ প্রম্পট আক্রমণ সনাক্ত এবং ব্লক করতে অন্য এআই মডেল ব্যবহার করে। এই এআই মডেলটি প্রতিপক্ষের আক্রমণের মতো হুমকির জন্য ঝুঁকিপূর্ণ হতে পারে।

"প্রতিপক্ষরা প্রম্পট শিল্ডগুলিকে বাইপাস করার জন্য এই দুর্বলতাগুলিকে কাজে লাগাতে পারে৷ যদিও নিরাপত্তা ব্যবস্থার বার্তাগুলি কিছু ক্ষেত্রে কার্যকরী বলে প্রমাণিত হয়েছে, বিদ্যমান আক্রমণ যেমন BEAST এআই মডেলগুলিকে শীঘ্রই জেলব্রেক করতে প্রতিপক্ষভাবে আক্রমণ করতে পারে। যদিও AI সিস্টেমের জন্য প্রতিরক্ষা প্রয়োগ করা উপকারী, তবে তাদের সম্ভাব্য ত্রুটিগুলি সম্পর্কে সচেতন থাকা অপরিহার্য।” ®

স্পট_আইএমজি

সর্বশেষ বুদ্ধিমত্তা

স্পট_আইএমজি

আমাদের সাথে খোস গল্প কর

হাই সেখানে! আপনাকে কিভাবে সাহায্য করতে পারি?