التكنولوجيا

مفارقة الذكاء الاصطناعي: كيف يمكن لأدوات الغد المتطورة أن تتحول إلى تهديدات سيبرانية خطيرة؟ إليك كيفية الاستعداد!

تغيير الذكاء الاصطناعي لأسلوب ⁢عمل الشركات

يغير الذكاء الاصطناعي الطريقة التي تعمل بها‌ الشركات. بينما يعتبر الكثير من هذا ​التحول إيجابيًا، فإنه ​يقدم بعض المخاوف الفريدة في مجال ⁢الأمن السيبراني. تطبيقات الذكاء الاصطناعي من الجيل التالي مثل “الذكاء الاصطناعي الوكيل” تمثل خطرًا ملحوظًا على ​وضع الأمان في المؤسسات.

ما هو الذكاء الاصطناعي الوكيل؟

يشير “الذكاء الاصطناعي الوكيل” إلى نماذج الذكاء الاصطناعي التي يمكن أن تعمل ⁤بشكل مستقل، وغالبًا ما تقوم بأتمتة أدوار كاملة مع القليل أو بدون تدخل بشري. تعتبر الدردشات المتقدمة من​ أبرز الأمثلة، ولكن يمكن أن تظهر وكلات الذكاء الاصطناعي أيضًا في ⁣تطبيقات مثل ذكاء الأعمال والتشخيص الطبي ‌وتعديلات التأمين.

في جميع ​حالات الاستخدام، تجمع هذه التكنولوجيا بين النماذج التوليدية ومعالجة اللغة الطبيعية (NLP) ووظائف التعلم الآلي الأخرى لأداء ​مهام ​متعددة الخطوات بشكل مستقل. من السهل رؤية ‍القيمة ⁢في مثل هذا الحل. ومن المفهوم أن شركة غارتنر تتوقع أن ثلث جميع التفاعلات مع خدمات ⁢الذكاء التوليدي ستستخدم هؤلاء الوكلاء بحلول عام 2028.

المخاطر الأمنية الفريدة ‍للذكاء الاصطناعي الوكيل

من المتوقع أن يرتفع اعتماد “الذكاء ⁢الاصطناعي‍ الوكيل” حيث‌ تسعى الشركات لإكمال مجموعة أكبر من المهام دون الحاجة إلى قوة عمل أكبر. ومع ذلك، ​فإن منح نموذج ذكائي‌ اصطناعي هذه ‌القوة الكبيرة له تداعيات خطيرة على الأمن السيبراني.

عادةً ما تتطلب وكلات الذكاء الوصول إلى ⁢كميات هائلة من البيانات. وبالتالي، فهي أهداف رئيسية للمجرمين الإلكترونيين، حيث يمكن للمهاجمين تركيز جهودهم على تطبيق واحد لكشف كمية كبيرة من المعلومات.‌ سيكون لذلك تأثير مشابه لصيد الحيتان — ⁣الذي أدى إلى خسائر بلغت 12.5 مليار⁤ دولار في عام 2021 وحده — ولكنه قد يكون ‍أسهل، حيث ​قد⁤ تكون نماذج الذكاءات الصناعية أكثر عرضة للخطر مقارنة بالمهنيين ‍ذوي الخبرة.

استقلالية “الذكاء الإصنعاي الوكيل” هي مصدر قلق آخر. ‍بينما تقدم جميع خوارزميات التعلم الآلي​ بعض⁢ المخاطر، تتطلب حالات ‍الاستخدام التقليدية تفويض بشري للقيام بأي شيء ببياناتها. أما العملاء فبإمكانهم العمل بدون إذن مسبق مما يؤدي إلى أي تعرض غير مقصود للخصوصية أو أخطاء مثل هلوسة AI قد تمر⁤ دون ملاحظة أحد.

تزيد هذه الحالة المراقبة الحالية لمخاطر AI الموجودة⁤ مثل تسميم البيانات أكثر خطورةً؛ إذ يمكن للمهاجمين إفساد نموذج ‌عن طريق تغيير فقط 0,01% من مجموعة بيانات التدريب الخاصة به وهو أمر ممكن باستثمار ​ضئيل للغاية.

كيفية تحسين أمن وكالات AI

في ضوء هذه التهديدات ، تحتاج استراتيجيات الأمن السيبراني للتكيف قبل تنفيذ التطبيقات المعتمدة على “الذكاءات الصناعية”. إليكم أربع خطوات حاسمة نحو تحقيق هذا الهدف:

1-⁣ زيادة الرؤية

أول خطوة هي ضمان حصول فرق الأمان والعمليات على رؤية كاملة لتدفق العمل لوكلائهم⁢ الصناعين؛ يجب أن تكون كل ⁤مهمة يكملها النموذج واضحة وكذلك كل جهاز أو تطبيق يتصل به وجميع البيانات التي يمكنه ​الوصول إليها.

2- ⁣استخدام مبدأ الحد الأدنى من الامتياز

بمجرد وضوح ما يستطيع العميل التعامل معه ، يجب على الشركات تقييد تلك الامتيازات وفق مبدأ الحد الأدنى منها – والذي ينص على أنه لا يُسمح لأي كيان برؤية واستخدام إلا ما يحتاج إليه فعلاً – فهو أمر ضروري لتقليل مخاطر الهجمات ذات الصلة ‌.

3- تقليل⁤ المعلومات الحساسة⁤

يمكن لمسؤولي الشبكة منع انتهاكات الخصوصية عن طريق ‌إزالة التفاصيل الحساسة من مجموعات⁣ البيانات التي يمكن لوكلائهم الصناعين الوصول إليها؛​ فالكثير مما يقوم به هؤلاء العملاء يتضمن بيانات خاصة ولكن ليس كل تلك التفاصيل ضرورية .

4- مراقبة السلوك المشبوه

يجب توخي الحذر عند برمجة وكالات AI أيضًا؛ ينبغي البدء‍ بتطبيق صغير ومحدود​ أولاً واستخدام فريق متنوع لمراجعة النموذج بحثاً عن علامات الانحياز أو‍ الهلوسة أثناء التدريب . وعند ⁢وقت نشر‍ العميل ، يجب طرحه ببطء ⁣ومراقبته بحثاً عن سلوك مشبوه .

مع تقدم الأمن السيبراني ، ‌يجب أيضاً تحديث⁤ استراتيجيات الأمن‍ السيبراني

يمثل التطور السريع للذكاءات الصناعية وعدًا كبيرًا ‌للأعمال الحديثة ‍، لكن مخاطرها الأمنية ترتفع بنفس السرعة . لذا يجب تعزيز دفاعاتها الإلكترونية بالتوازي مع استخدام الحالات المتعلقة بالذكاءات الصناعية . عدم مواصلة متابعة هذه التغييرات قد يسبب أضرار تفوق فوائد ⁢التكنولوجيا .

زاك أموس هو ⁣محرر الميزات في​ ReHack

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى