ذكاء البيانات التوليدية

التنفيذ المسؤول للذكاء الاصطناعي، القوة التي لا يمكن إيقافها

التاريخ:

التعليق

في الآونة الأخيرة، يرغب ما لا يقل عن نصف قادة الإدارة التنفيذية الذين التقيت بهم في الحديث عن الذكاء الاصطناعي والتعلم الآلي (AI/ML)، وكيف يمكن لشركاتهم تمكينه، وما إذا كان التمكين الآمن ممكنًا. أخبرني أحد القادة في شركة مالية كبيرة مؤخرًا أن مجلس الإدارة حريص جدًا على الاستفادة من الذكاء الاصطناعي التوليدي: "إنها ميزة تنافسية. إنه مفتاح الأتمتة. علينا أن نبدأ في استخدامه." ولكن عندما سألتهم عما يفعلونه بالذكاء الاصطناعي، أجابوا: "أوه، نحن نمنعه".

منذ سنوات مضت، كان هناك ضجة حول الفوائد المباشرة للسحابة وحالات الاستخدام التحويلية، ولكن أيضًا كانت هناك مقاومة واسعة النطاق لاعتمادها بسبب المخاطر المحتملة. في نهاية المطاف، كان من المستحيل محاولة منع المستخدمين النهائيين من استخدام الأدوات المستندة إلى السحابة. وفي النهاية قال الجميع: "حسناً، يتعين علينا أن نجد طرقاً لاستخدامها"، لأن الفوائد والمرونة تفوق المخاطر الأمنية بشكل كبير.

التاريخ يعيد نفسه الآن مع الذكاء الاصطناعي، ولكن كيف يمكننا تمكينه بشكل آمن والتحكم في البيانات الحساسة من التعرض لها؟

الأخبار الجيدة عن الذكاء الاصطناعي

يستخدمه الأشخاص (أكثر من المنظمات). الذكاء الاصطناعي التوليدي لرؤية المعلومات بطريقة أكثر محادثة. يمكن لأدوات الذكاء الاصطناعي التوليدية الاستماع إلى الإدخال الصوتي والرد عليه، وهو بديل شائع لكتابة النص في محرك البحث. وفي بعض المؤسسات ذات التفكير التقدمي، يتم تطبيقه لأتمتة المهام اليومية وابتكارها، مثل مكاتب المساعدة الداخلية.

من المهم أن تتذكر أن العديد من حالات الاستخدام الأكثر أهمية وإثارة لا تأتي من الواقع الذكاء الاصطناعي التوليدي. تساعد نماذج الذكاء الاصطناعي/التعلم الآلي المتقدمة في حل بعض أكبر المشكلات التي تواجه البشرية، مثل تطوير أدوية ولقاحات جديدة.

إن تمكين العملاء في مجالات الرعاية الصحية والطب وعلوم الحياة من تنفيذ الذكاء الاصطناعي بشكل آمن يعني مساعدتهم على حل هذه المشكلات الكبيرة. لدينا ما يقرب من 100 عالم بيانات يعملون على خوارزميات الذكاء الاصطناعي/التعلم الآلي كل يوم، وقد أصدرنا أكثر من 50 نموذجًا لدعم إيقاف التهديدات ومنع تسرب البيانات الحساسة من المطلعين أو المهاجمين الذين أصابوا المطلعين.

المشاكل الأمنية التي كانت مستعصية أصبحت الآن قابلة للحل باستخدام الذكاء الاصطناعي/التعلم الآلي. على سبيل المثال، يقوم المهاجمون بسرقة البيانات الحساسة بطرق مبتكرة، أو سرقة الأسرار من السبورات البيضاء الافتراضية أو إخفاء البيانات في الصور عن طريق إرسال الصور المضمنة بمعلومات حساسة عبر البريد الإلكتروني للتهرب من أدوات الأمان الشائعة. يمكن للمهاجم الوصول إلى مستودع مكشوف يحتوي على صور بطاقات ائتمان ضبابية أو بها وهج قد لا يتعرف عليه الأمان التقليدي، ولكن قدرات تعلم الآلة المتقدمة يمكن أن تساعد في اكتشافها. لا يمكن أيضًا إيقاف هذه الأنواع من الهجمات المتطورة، التي يتم تمكينها باستخدام الذكاء الاصطناعي/التعلم الآلي، دون استخدام الذكاء الاصطناعي/التعلم الآلي.

الأخبار السيئة حول الذكاء الاصطناعي

كل تكنولوجيا يمكن استخدامها للخير أو للشر. تعد السحابة اليوم أكبر عامل تمكين للإنتاجية وآلية التسليم الأكثر استخدامًا للبرامج الضارة. الذكاء الاصطناعي لا يختلف. يستخدم المتسللون بالفعل الذكاء الاصطناعي التوليدي لتعزيز قدراتهم الهجومية، مثل تطوير رسائل البريد الإلكتروني التصيدية أو كتابة حملات البرامج الضارة وتشغيلها تلقائيًا. ليس لدى المهاجمين الكثير ليخسروه ولا داعي للقلق بشأن مدى دقة النتائج.

إذا كان لدى المهاجمين الذكاء الاصطناعي/التعلم الآلي في ترسانتهم وأنت لا تمتلكه، حظًا سعيدًا. يجب عليك تسوية الملعب. أنت بحاجة إلى أدوات وعمليات وبنيات لحماية نفسك. إن الموازنة بين إيجابيات وسلبيات الذكاء الاصطناعي/التعلم الآلي تعني القدرة على التحكم في البيانات التي تغذيها في أنظمة الذكاء الاصطناعي وحل مشكلات الخصوصية لتمكين الذكاء الاصطناعي التوليدي بشكل آمن.

نحن على مفترق طرق مهم. ال الأمر التنفيذي لمنظمة العفو الدولية موضع ترحيب وضروري. وفي حين أن هدفه هو تقديم التوجيه للوكالات الفيدرالية بشأن اختبار أنظمة الذكاء الاصطناعي واستخدامها، إلا أن الأمر سيكون له قابلية تطبيق واسعة على الصناعة الخاصة.

كصناعة، يجب ألا نخاف من تطبيق الذكاء الاصطناعي، ويجب أن نفعل كل ما هو ممكن لإحباط الجهات الفاعلة السيئة من تطبيق الذكاء الاصطناعي لإلحاق الضرر بالصناعة أو الأمن القومي. يجب أن يكون التركيز على صياغة إطار عمل وأفضل الممارسات للتنفيذ المسؤول للذكاء الاصطناعي، خاصة عندما يتعلق الأمر بالذكاء الاصطناعي التوليدي.

ارسم مسارًا للأمام

فيما يلي أربع نقاط رئيسية يجب أخذها في الاعتبار للمساعدة في رسم المسار للأمام:

  1. أدرك أن الذكاء الاصطناعي التوليدي (والذكاء الاصطناعي/تعلم الآلة بشكل عام) هو قوة لا يمكن إيقافها. لا تحاول إيقاف ما لا مفر منه. اقبل أنه سيتم استخدام هذه الأدوات في مؤسستك. ومن الأفضل أن يقوم قادة الأعمال بصياغة السياسات والإجراءات المتعلقة بكيفية حدوث ذلك، بدلاً من محاولة منع استخدامها بشكل كامل.

  2. ركز على كيفية استخدامها بطريقة مسؤولة. هل يمكنك التأكد من وصول المستخدمين لديك إلى إصدارات الشركة فقط من تطبيقات الذكاء الاصطناعي التوليدية؟ هل يمكنك التحكم في مشاركة البيانات الحساسة مع هذه الأنظمة؟ إذا لم تتمكن من ذلك، ما هي الخطوات التي يمكنك اتخاذها لتحسين رؤيتك وتحكمك؟ يمكن لبعض تقنيات أمن البيانات الحديثة الإجابة على هذه الأسئلة والمساعدة في توفير إطار عمل لإدارتها.

  3. لا تنسى الفعالية. وهذا يعني دقة ودقة إخراجها. هل أنت متأكد من أن نتائج الذكاء الاصطناعي التوليدي موثوقة؟ الذكاء الاصطناعي لا يلغي الحاجة إلى محللي البيانات وعلماء البيانات - سيكون لهم دور لا يقدر بثمن في مساعدة المؤسسات على تقييم الكفاءة والدقة في السنوات القادمة حيث نقوم جميعًا بإعادة بناء المهارات.

  4. تصنيف كيفية استخدامه. ستتطلب بعض التطبيقات دقة ودقة عالية بالإضافة إلى الوصول إلى البيانات الحساسة، لكن البعض الآخر لن يتطلب ذلك. هلوسة الذكاء الاصطناعي التوليدية في سياق البحث الطبي من شأنها أن تمنع استخدامه. لكن معدلات الخطأ في التطبيقات الأكثر اعتدالًا (مثل التسوق) قد تكون مقبولة. يمكن أن يساعدك تصنيف كيفية استخدامك للذكاء الاصطناعي في استهداف التطبيقات السهلة المنال، وهي التطبيقات التي ليست حساسة لقيود الأدوات.

ومن العدل أيضًا أن نقول إن هناك الكثير من عمليات غسل الذكاء الاصطناعي هناك. الجميع يعلن: "نحن شركة ذكاء اصطناعي!" ولكن عندما يصل المطاط إلى الطريق، يجب عليهم استخدامه، وعليهم تنفيذه، ويجب أن يوفر قيمة. ولتحقيق أي من هذه النتائج الطموحة بشكل مسؤول من الذكاء الاصطناعي التوليدي أو نماذج الذكاء الاصطناعي/التعلم الآلي الأوسع، يجب على المؤسسات أولاً التأكد من قدرتها على حماية موظفيها وبياناتها من المخاطر الكامنة في هذه الأدوات القوية.

بقعة_صورة

أحدث المعلومات الاستخباراتية

بقعة_صورة