التكنولوجيا

ديب سيك: كيف تعزز الذكاء الاصطناعي المفتوح في الصين الأمن القومي وتخلق تناقضات مثيرة!

ديب سيك و نموذج R1: إعادة⁣ كتابة قواعد الذكاء الاصطناعي ⁢في ⁤الأمن السيبراني

لا تضيع شركة ديب سيك ونموذجها R1 أي وقت في إعادة كتابة قواعد الذكاء الاصطناعي للأمن السيبراني في الوقت الحقيقي، حيث تقوم الشركات‍ الناشئة ومزودو المؤسسات ‍بتجربة تكاملات مع ⁤نموذجهم الجديد هذا الشهر.

تم تطوير R1 في الصين ويعتمد على التعلم⁢ المعزز النقي (RL) دون ضبط دقيق تحت إشراف. كما أنه​ مفتوح المصدر، مما يجعله جذابًا على الفور تقريبًا لكل شركة ناشئة في مجال الأمن السيبراني التي تعتمد بالكامل ‍على بنية مفتوحة‌ المصدر وتطويرها ونشرها.

تستثمر ديب سيك 6.5 مليون دولار في النموذج، مما يوفر أداءً يتماشى⁢ مع ‌معيار OpenAI o1-1217 من حيث اختبارات التفكير بينما يعمل على وحدات معالجة الرسوميات Nvidia H800 ذات المستوى الأدنى. تحدد أسعار ديب سيك معيارًا جديدًا بتكاليف أقل بكثير لكل مليون رمز مقارنة بنماذج OpenAI. يتقاضى نموذج deep seek-reasoner 2.19‍ دولار لكل مليون رمز مخرجات، بينما يتقاضى نموذج⁤ OpenAI o1 60 دولارًا لنفس‌ الكمية. لقد جذب هذا الفرق السعري وبنيته المفتوحة المصدر ⁢انتباه ⁤مديري المعلومات ومديري‍ أمن المعلومات والشركات الناشئة ومزودي‍ البرمجيات المؤسسية.

(من المثير للاهتمام أن OpenAI تدعي أن ديب سيك استخدمت نماذجها لتدريب R1 ونماذج أخرى، بل ذهبت إلى حد القول إن الشركة قامت باستخراج البيانات من خلال استفسارات متعددة.)

اختراق​ ذكاء اصطناعي مع مخاطر خفية ستستمر بالظهور

في صميم⁣ قضية أمان وثقة النماذج ⁤هو ما إذا كانت الرقابة والتحيز ​الخفي⁢ قد تم دمجهما في جوهر النموذج، حذر كريس كرايبس، المدير‌ الأول لوكالة الأمن السيبراني وأمن البنية التحتية بوزارة الأمن الداخلي الأمريكية (DHS) وأحدثاً كبير مسؤولي⁤ السياسة العامة لدى SentinelOne.

قال: “قد تكون رقابة المحتوى النقدي للحزب الشيوعي الصيني⁣ ‘مدمجة’ داخل‌ النموذج وبالتالي ميزة تصميم يجب التعامل معها وقد تؤثر سلباً‌ على النتائج الموضوعية”. “قد يدعم هذا ‘الاستئصال السياسي’ لنماذج الذكاء⁤ الاصطناعي الصينية… تطوير وانتشار نماذج الذكاء الاصطناعي المفتوحة المصدر القائمة في⁢ الولايات المتحدة.”

وأشار إلى​ أنه كما تقول الحجة، فإن إضفاء الطابع الديمقراطي على الوصول إلى المنتجات الأمريكية يجب أن يزيد من القوة الناعمة الأمريكية بالخارج ويقلل من انتشار الرقابة الصينية عالميًا. “إن التكلفة المنخفضة ⁤لـ R1 والأساسيات الحسابية البسيطة تطرح تساؤلات ⁤حول فعالية الاستراتيجية الأمريكية لمنع الشركات الصينية​ من الوصول إلى التكنولوجيا الغربية المتطورة بما فيها ⁤وحدات ‍معالجة الرسوميات”، قال كرايبس. “بطريقة ما، هم حقاً يفعلون ‘المزيد ⁢بأقل’.”

أخبرت ماريت باير، مديرة أمن​ المعلومات لدى Reco ومستشارة للعديد من شركات الأمان الناشئة VentureBeat بأن “في الواقع ، قد يكون تدريب [DeepSeek-R1] باستخدام بيانات الإنترنت⁢ الأوسع التي تتحكم بها مصادر الإنترنت الغربية (أو ربما ​يوصف بشكل أفضل بأنها تفتقر ⁣إلى الضوابط والجدران النارية الصينية)، أحد العلاجات لبعض المخاوف.”

مع تدريب ديب سيك للنموذج باستخدام وحدات معالجة الرسوميات Nvidia H800 المعتمدة للبيع في الصين ولكن تفتقر لقوة المعالجات ⁢الأكثر تقدمًا H100 و A100 ، تعمل ديب ⁤سيك أيضًا على إضفاء الطابع الديمقراطي لنموذجها لأي منظمة يمكنها تحمل تكلفة الأجهزة اللازمة لتشغيله.

تشير التقديرات والفواتير الخاصة بالمواد التي توضح كيفية بناء​ نظام مقابل 6000 دولار ⁢قادر على تشغيل R1 ⁤تتزايد عبر وسائل التواصل الاجتماعي.

سيتم بناء نموذج R1 والنماذج اللاحقة لتجاوز العقوبات التكنولوجية الأمريكية ، وهو نقطة يعتبرها كرايبس تحديًا مباشرًا لاستراتيجية الذكاء الاصطناعي الأمريكية.

وجد تقرير فريق الاختراق الخاص بـ Enkrypt AI أن النموذج عرضة لإنشاء “رموز ضارة وسامة ومتحيزة وغير آمنة”.‍ يستمر الفريق الأحمر قائلاً: “بينما قد يكون مناسباً للتطبيقات ذات النطاق الضيق ، يظهر النموذج ضعفاً كبيراً في مجالات المخاطر التشغيلية⁢ والأمنية.”

كما ⁢وجد فريق Enkrypt AI أيضاً أن Deepseek-R1 متحيز‌ ثلاث مرات أكثر من ⁤Claude 3 Opus وأربعة مرات أكثر عرضة لإنشاء ⁢رموز غير ⁢آمنة مقارنةً بنموذجي Open AI o1⁣ و GPT-4o .

اعرف مخاطر الخصوصية والأمان قبل مشاركة بياناتك

تسيطر تطبيقات الهاتف المحمول الخاصة بـ DeepSeek الآن على التنزيلات العالمية ، وتشهد النسخة الإلكترونية حركة مرور⁢ قياسية ، حيث​ يتم التقاط جميع البيانات الشخصية⁢ المشتركة عبر كلا النظامين على خوادم موجودة بالصين . تفكر المؤسسات الآن بتشغيل النموذج على خوادم معزولة لتقليل التهديد .

أي بيانات مشتركة عبر التطبيقات المحمولة والويب يمكن الوصول إليها بواسطة وكالات الاستخبارات الصينية .

تنص قانون‍ الاستخبارات الوطنية‌ الصيني بأن الشركات يجب عليها “دعم ومساعدة والتعاون” مع وكالات الاستخبارات‍ الحكومية . هذه الممارسة شائعة‍ جدًا ⁣وتشكل تهديدا للشركات ⁤والمواطنين الأمريكيين لدرجة أن وزارة الأمن⁢ الداخلي نشرت نصيحة تجارية ⁣بشأن أمان البيانات . بسبب هذه المخاطر ، أصدرت البحرية الأميركية توجيهات تحظر استخدام DeepSeek-R1 ضمن أي⁤ نظم أو مهام أو مشاريع مرتبطة بالعمل⁣ .

تقوم المنظمات السريعة التجربة بالنموذج الجديد ‍بالتوجه نحو المصادر المفتوحة وعزل الأنظمة التجريبية عن شبكتهم الداخلية والإنترنت . الهدف هو⁢ إجراء اختبارات معيار محددة أثناء ضمان بقاء جميع البيانات خاصة .

يجادل إيتامار غولان الرئيس التنفيذي ⁣لشركة Prompt Security بأن مخاطر خصوصية البيانات تمتد لأبعد من مجرد DeepSeek . “يجب ألا تُغذى بيانات المؤسسات الحساسة أيضًا⁣ إلى مقدمي نماذج أمريكيين آخرين مثل OpenAI” كما لاحظ غولان .

مع إدراك عيوب الأمان لـR1, قامت Prompt بإضافة دعم لفحص حركة‍ المرور الناتجة عن استفسارات DeepSeek-R1 بعد أيام قليلة فقط من تقديم النموذج ‌.

خلال‍ تحقيق حول البنية التحتية العامة لـDeepSeek,‌ اكتشف فريق البحث الخاص بمزود​ خدمات الأمان السحابي Wiz قاعدة بيانات ClickHouse مفتوحة عبر الإنترنت تحتوي علي أكثر من مليون سطر سجلات ‍تحتوي علي محادثات تاريخيه​ ومفاتيح سرّيه وتفاصيل ​خلفيه بدون تمكين المصادقة, مما يسمح بإمكان تصعيد الامتياز بسرعة محتملة.

تشدد ‌اكتشاف Wiz Research خطر اعتماد خدمات الذکاء الصناعی بسرعة والتي لا ⁤تستند إلي إطار عمل أمني قوي علی نطاق واسع.

تحذر⁤ Krebbs بأن الخطر الحقيقي للنموذج ليس فقط مكان صنعه ولكن كيف تم صنعه أيضاً.

يتفق قادة​ الأمن ‌السيبراني والأمن القومي أن DeepSeek-R1 هو الأول بين العديد من النماذج ذات الأداء الاستثنائي ⁣والتكاليف المنخفضة التي سنشهدها قادمةً مِن ‌الصين ودول أخرى تطبق السيطرة علي جميع البيانات المُجمعة .

الخلاصة: حيث كان يُنظر إلي‌ المصادر⁤ المفتوحة‌ منذ‌ فترة طويلة باعتبارها قوة ديمقراطية فِي البرمجيات, فإن المفارقة التي يخلقها هذا النموذَج تُظهر مدى ​سهولة إمكانية استخدام دولة قومياً للمصادر المفتوحة ⁢حسب إرادتها إذا اختارت ذلك.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى