القائمة الرئيسية

الصفحات

NIST يفصل أنواع الهجمات الإلكترونية التي تؤدي إلى خلل في أنظمة الذكاء الاصطناعي


 من الممكن أن يتم خداع أنظمة الذكاء الاصطناعي (AI) عمدًا أو حتى "تسميمها" من قبل المهاجمين، مما يؤدي إلى أعطال شديدة وفشل مذهل.

في الوقت الحالي، لا توجد طريقة معصومة لحماية الذكاء الاصطناعي من التوجيه الخاطئ، ويرجع ذلك جزئيًا إلى أن مجموعات البيانات اللازمة لتدريب الذكاء الاصطناعي أكبر من أن يتمكن البشر من مراقبتها وتصفيتها بشكل فعال.

حدد علماء الكمبيوتر في المعهد الوطني للمعايير والتكنولوجيا (NIST) والمتعاونون معهم نقاط الضعف هذه وغيرها من نقاط الضعف في الذكاء الاصطناعي وتدابير التخفيف التي تستهدف أنظمة الذكاء الاصطناعي.

يوضح هذا التقرير الجديد أنواع الهجمات التي قد تواجهها حلول الذكاء الاصطناعي الخاصة بها بالإضافة إلى استراتيجيات التخفيف المصاحبة لدعم مجتمع المطورين.


أربعة أنواع رئيسية من الهجمات

يبحث البحث في أربعة أنواع رئيسية من الهجمات مثل:

  • التهرب
  • تسمم
  • خصوصية
  • هجمات الإساءة

كما أنها تصنفها بناءً على خصائص مختلفة، بما في ذلك أهداف المهاجم وغاياته وقدراته ومعرفته.

هجمات التهرب

يحاول المهاجمون الذين يستخدمون تقنيات التهرب تعديل أحد المدخلات للتأثير على كيفية تفاعل نظام الذكاء الاصطناعي معه بعد النشر. 

قد تكون بعض الأمثلة إنشاء علامات حارة مربكة للتسبب في انحراف سيارة ذاتية القيادة عن الطريق أو إضافة علامات إلى إشارات التوقف لتتسبب في قراءتها عن طريق الخطأ على أنها علامات حدود للسرعة.

هجمات التسمم

عن طريق إدخال بيانات تالفة أثناء عملية التدريب، تحدث هجمات التسمم. على سبيل المثال، يمكن أن تكون إضافة أمثلة متعددة للغة غير مناسبة إلى سجلات المحادثة إحدى الطرق لخداع برنامج الدردشة الآلي وجعله يعتقد أن اللغة منتشرة بدرجة كافية لاستخدامها في تفاعلات العملاء الحقيقية.

هجمات الخصوصية

إن الهجمات على الخصوصية أثناء النشر هي محاولات للحصول على معلومات خاصة حول الذكاء الاصطناعي أو البيانات التي تم تدريبه عليها لإساءة استخدامه. 

يمكن للخصم أن يطرح العديد من الأسئلة الصحيحة على برنامج الدردشة الآلي ثم يستخدم الردود لإجراء هندسة عكسية للنموذج لتحديد نقاط الضعف فيه أو التكهن بمصدرها.

قد يكون من الصعب جعل الذكاء الاصطناعي يتخلص من تلك الحالات المحددة غير المرغوب فيها بعد وقوعها، كما أن إضافة أمثلة غير مرغوب فيها إلى مصادر الإنترنت هذه يمكن أن يتسبب في أداء الذكاء الاصطناعي بشكل سيء.

هجمات الإساءة

في هجوم إساءة الاستخدام، يتم إدخال بيانات غير صحيحة في المصدر - صفحة ويب أو مستند عبر الإنترنت، على سبيل المثال - والتي يتلقاها الذكاء الاصطناعي. تهدف هجمات إساءة الاستخدام إلى تزويد الذكاء الاصطناعي بمعلومات كاذبة من مصدر فعلي ولكنه تالف لإعادة توظيف نظام الذكاء الاصطناعي للغرض المقصود منه.

مع القليل من المعرفة المسبقة بنظام الذكاء الاصطناعي أو عدم وجودها على الإطلاق وقدرات الخصم المحدودة، يكون من السهل نسبيًا إطلاق معظم الهجمات.

وقال أبوستول فاسيليف، عالم الكمبيوتر في NIST، وأحد مؤلفي المنشور: "إن الوعي بهذه القيود مهم للمطورين والمنظمات التي تتطلع إلى نشر واستخدام تكنولوجيا الذكاء الاصطناعي" .

"على الرغم من التقدم الكبير الذي أحرزه الذكاء الاصطناعي والتعلم الآلي، إلا أن هذه التقنيات معرضة للهجمات التي يمكن أن تسبب إخفاقات مذهلة ذات عواقب وخيمة. هناك مشاكل نظرية تتعلق بتأمين خوارزميات الذكاء الاصطناعي والتي لم يتم حلها بعد. وإذا قال أي شخص خلاف ذلك، فهو يبيع زيت الثعبان”.


تعليقات