نقاش الذكاء الاصطناعي مفتوح المصدر: لماذا تمثل الشفافية الانتقائية خطرًا كبيرًا؟

فهم قوة التعاون الحقيقي في المصادر المفتوحة
ببساطة، يتميز البرمجيات مفتوحة المصدر بوجود كود مصدر متاح مجانًا يمكن الاطلاع عليه وتعديله وتحليله واعتماده ومشاركته لأغراض تجارية وغير تجارية - وقد كان له تاريخيًا دور كبير في تعزيز الابتكار. على سبيل المثال، أطلقت عروض المصادر المفتوحة مثل لينكس وأباتشي وMySQL وPHP الإنترنت كما نعرفه اليوم.
الآن، من خلال ديمقراطية الوصول إلى نماذج الذكاء الاصطناعي والبيانات والمعلمات وأدوات الذكاء الاصطناعي مفتوحة المصدر، يمكن للمجتمع مرة أخرى إطلاق ابتكار أسرع بدلاً من إعادة اختراع العجلة باستمرار - وهذا هو السبب وراء دراسة حديثة أجرتها IBM شملت 2400 صانع قرار في تكنولوجيا المعلومات والتي كشفت عن اهتمام متزايد باستخدام أدوات الذكاء الاصطناعي مفتوحة المصدر لتعزيز العائد على الاستثمار. بينما كانت سرعة التطوير والابتكار في مقدمة القائمة عند تحديد العائد على الاستثمار في الذكاء الاصطناعي، أكدت الأبحاث أيضًا أن تبني الحلول المفتوحة قد يرتبط بزيادة الجدوى المالية.
بدلاً من المكاسب قصيرة المدى التي تفيد عددًا أقل من الشركات، تدعو أدوات الذكاء الاصطناعي مفتوحة المصدر إلى إنشاء تطبيقات أكثر تنوعًا وتخصيصًا عبر الصناعات والمجالات التي قد لا تتوفر لها الموارد لنماذج ملكية.
ربما يكون الأمر الأكثر أهمية هو أن الشفافية التي توفرها المصادر المفتوحة تسمح بالتدقيق المستقل ومراجعة سلوكيات وأنظمة الأخلاق الخاصة بالذكاء الاصطناعي – وعندما نستفيد من الاهتمام والدافع الموجودين لدى الجماهير، سيجدون المشكلات والأخطاء كما فعلوا مع فضيحة مجموعة بيانات LAION 5B.
في تلك الحالة، تمكنت الجماهير من اكتشاف أكثر من 1000 رابط يحتوي على مواد موثقة تتعلق بإساءة معاملة الأطفال مخفية داخل البيانات التي تغذي نماذج الذكاء الاصطناعي التوليدية مثل Stable Diffusion وMidjourney – والتي تنتج صوراً بناءً على نصوص وصور توجيهية وتعتبر أساسية في العديد من أدوات وتطبيقات توليد الفيديو عبر الإنترنت.
بينما أثار هذا الاكتشاف ضجة كبيرة، لو كانت تلك المجموعة مغلقة كما هو الحال مع Sora التابعة لـ OpenAI أو Gemini التابعة لجوجل، لكانت العواقب أسوأ بكثير. يصعب تخيل رد الفعل الذي سيحدث إذا بدأت أكثر أدوات إنشاء الفيديو المثيرة للذكاء الاصطناعي بإنتاج محتوى مزعج.
لحسن الحظ ، مكنت الطبيعة المفتوحة لمجموعة بيانات LAION 5B المجتمع لتحفيز منشئيها للتعاون مع مراقبي الصناعة لإيجاد حل وإصدار RE-LAION 5B – مما يوضح لماذا تعتبر شفافية الذكاء الاصطناعي مفتوح المصدر الحقيقي ليست مفيدة فقط للمستخدمين ولكن أيضًا للصناعة والمبدعين الذين يعملون لبناء الثقة مع المستهلكين والجمهور العام.
خطر استخدام المصادر المفتوحة بشكل غير صحيح في مجال الذكاء الإصناني
بينما يعد مشاركة كود المصدر أمرًا سهلاً نسبيًا ، فإن أنظمة الذكاء الإصناني أكثر تعقيدًا بكثير مقارنة بالبرمجيات. تعتمد هذه الأنظمة على كود مصدر النظام بالإضافة إلى المعلمات والنماذج ومجموعات البيانات والمعلمات الفائقة وكود التدريب وتوليد الأرقام العشوائية وإطار العمل البرمجي — ويجب أن تعمل كل هذه المكونات بالتنسيق لكي تعمل نظام ذكائي بشكل صحيح.
وسط المخاوف المتعلقة بالسلامة في مجال الذكاء الإصناني ، أصبح شائعاً القول بأن إصدار ما هو “مفتوح” أو “مصدر مفتوح”. ومع ذلك ، لكي يكون هذا دقيقاً ، يجب على المبتكرين مشاركة جميع أجزاء اللغز حتى يتمكن اللاعبون الآخرون من فهم وتحليل وتقييم خصائص نظام AI بالكامل لإعادة إنتاجه أو تعديله أو توسيع قدراته لاحقاً.
على سبيل المثال ، قامت شركة ميتا بالإعلان عن Llama 3.1 باعتباره “أول نموذج ذكائي مفتوح المستوى” لكنها شاركت فقط المعلمات المدربة مسبقاً للنظام وبعض البرمجيات العامة. بينما يسمح ذلك للمستخدمين بتنزيل واستخدام النموذج حسب الرغبة ، تظل العناصر الأساسية مثل كود المصدر ومجموعات البيانات مغلقة — وهو ما يصبح أكثر إشكالية بعد إعلان ميتا عن إدخال ملفات تعريف الروبوتات للذكاء الإصناني حتى وهي توقف مراجعة المحتوى للتحقق منه بدقة .
للإنصاف, فإن ما يتم مشاركته يساهم بالتأكيد لصالح المجتمع . تقدم النماذج ذات الوزن المفتوح مرونة وسهولة وصول وابتكار ومستوى معين من الشفافية . قرار DeepSeek بجعل أوزانها مصدراً مفتوحاً وإصدار تقاريرها الفنية لـ R1 وجعل استخدامها مجانيًّ مثلاً مكّن مجتمع AI لدراسة والتحقق منه ومنهجيتها ودمجه ضمن أعمالهم .
ومع ذلك, فإنه يعتبر مضللاً وصف نظام ذكائي بأنه مصدر مفتوح عندما لا يستطيع أحد فعليًّ النظر والت experiment وفهم كل جزءٍ اللغز الذي ساهم بتطويره .
هذا التوجيه الخاطئ يفعل أكثر مما يهدد الثقة العامة . بدلاً من تمكين الجميع داخل المجتمع للتعاون والبناء والتقدم بنماذج مثل Llama X , فإنه يجبر المبتكرين الذين يستخدمون هذه الأنظمة للثقة عميائياً بالمكونات غير المشتركة .
احتضان التحدي أمامنا
مع دخول السيارات ذاتية القيادة إلى الشوارع الكبرى ونظم AI تساعد الجراحين داخل غرف العمليات, نحن فقط عند بداية السماح لهذه التكنولوجيا بأخذ عجلة القيادة المجازية . الوعد هائل , وكذلك الإمكانية للخطأ — وهذا هو السبب وراء حاجتنا لتحديد مقاييس جديدة لما يعنيه أن تكون موثوق به عالمياً ضمن عالم AI .
حتى عندما حاولت Anka Reuel وزملاؤها بجامعة ستانفورد مؤخرًا وضع إطار عمل جديد لمعايير تقييم أداء النماذج المستخدمة لتقييم مدى جودة الأداء , إلا أن ممارسة المراجعة التي يعتمد عليها القطاع والجمهور ليست كافية بعد . فشلت عملية القياس لأنها لا تأخذ بعين الاعتبار حقيقة تغير مجموعات البيانات الأساسية لأنظمة التعلم باستمرار وأن المقاييس المناسبة تختلف باختلاف حالة الاستخدام . كما تفتقر المجال أيضاً إلى لغة رياضية غنية لوصف القدرات والقيود الموجودة ضمن الـAI المعاصر .
من خلال مشاركة نظم الـAI كاملة لتمكين الانفتاح والشفافية بدلاً الاعتماد على مراجعات غير كافية ودفع الكلمات الرنانة, يمكن لنا تعزيز التعاون وزراعة الابتكار باستخدام ذكاءات اصطناعياً آمنة وأخلاقياً مطورة .
بينما يوفر الـAI حقائق حقيقية إطار عمل مثبت لتحقيق هذه الأهداف, هناك نقص مقلق بشفافية الصناعة . بدون قيادة جريئة وتعامل مشترك بين شركات التكنولوجيا للحكم الذاتى , قد تؤدي فجوة المعلومات هذه للإضرار بثقة الجمهور وقبولهم لذلك يجب احتضان الانفتاح والشفافية والمصدر المفتوح ليس مجرد نموذج عمل قوي — بل يتعلق أيضاً باختيار مستقبل AI يعود بالنفع للجميع وليس فقط القلة.
جايسون كورسو أستاذ بجامعة ميشيغان وشريك مؤسس لشركة Voxel51.