هل تشك في الذكاء الاصطناعي؟ إليك لماذا يعتبر ذلك أمرًا طبيعيًا وصحيًا!

أقل خوفًا. أكثر تعبًا. هذا هو المكان الذي يقيم فيه العديد منا مع الذكاء الاصطناعي. ومع ذلك، أنا مندهش من الذكاء الاصطناعي. على الرغم من الوعود العديدة التي يقدمها الذكاء الاصطناعي لإعادة تشكيل الصناعة والعقل وكيف نعيش، فإنه من الضروري الاقتراب من الضجيج والأمل بحماس جديد يحتضن التعقيد. حماس يشجع على النقاش ويحتفظ بجرعة صحية من الشك. العمل بعقلية مشككة هو تحرير وعملي ويتحدى التقاليد ويغذي ما يبدو أنه شعور مفقود بشكل متكرر بالمنطق، خاصة إذا كنت غير راضٍ عن الافتراضات والشائعات التي لا تنتهي.
يبدو أننا عالقون في فجوة أو معركة “عجل وانتظر” بينما نراقب الحقائق وفوائد الذكاء الاصطناعي. نحن نعلم أن هناك مستقبلًا مشرقًا مُعلن عنه وأن حجم سوق الذكاء الاصطناعي العالمي يُقدّر بأكثر من 454 مليار دولار بنهاية عام 2024، وهو أكبر من الناتج المحلي الإجمالي الفردي لـ 180 دولة بما في ذلك فنلندا والبرتغال ونيوزيلندا.
ومع ذلك، تشير دراسة حديثة إلى أنه بحلول نهاية عام 2025، سيتم التخلي عن ما لا يقل عن 30% من مشاريع الذكاء الاصطناعي التوليدي بعد مرحلة إثبات المفهوم، وفي تقرير آخر “تشير بعض التقديرات إلى أن أكثر من 80% من مشاريع الذكاء الاصطناعي تفشل – أي ضعف معدل فشل مشاريع تكنولوجيا المعلومات التي لا تتضمن ذكاءً اصطناعياً”.
هل ستزدهر أم ستنهار؟
بينما يتم الخلط غالبًا بين الشكوكية والتشاؤم كأوصاف متشابهة، إلا أنهما مختلفتان جوهرياً في النهج.
تنطوي الشكوكية على الاستفسار وطرح الأسئلة ورغبة في الأدلة وعادة ما تكون بناءة محملة بتركيز نقدي. يميل التشاؤم إلى تقييد الإمكانيات ويتضمن شك (وربما قلق)، وقد يتوقع نتيجة سلبية. يمكن اعتباره حالة أو سلوك غير منتج وغير جذاب وغير محفز – رغم أنك إذا كنت تعتقد أن الخوف يبيع، فهو لن يختفي.
الشكوكية ، المتجذرة في الاستفسار الفلسفي ، تتضمن التساؤل حول صحة الادعاءات والسعي للحصول على أدلة قبل قبولها كحقيقة. الكلمة اليونانية “skepsis” تعني التحقيق. بالنسبة للشكوك المعاصرة ، فإن الالتزام بالاستفسار حول الذكاء الاصطناعي يعد أداة مثالية تسعى لتحقيق الحقيقة لتقييم المخاطر والفوائد وضمان أن الابتكار آمن وفعال ومسؤول.
لدينا فهم تاريخي سليم لكيف benefited inquiry النقدية المجتمع ، على الرغم من بعض البدايات الهشة جدًا:
- واجهت اللقاحات تدقيقًا ومقاومة شديدة بسبب قضايا السلامة والأخلاق ، ومع ذلك أدت الأبحاث المستمرة إلى لقاحات أنقذت ملايين الأرواح.
- أثارت بطاقات الائتمان مخاوف بشأن الخصوصية والاحتيال وتشجيع الإنفاق غير المسؤول . حسنت صناعة البنوك التجربة بشكل كبير عبر الاختبارات المدفوعة بواسطة المستخدمين والبنية التحتية المحدثة والمنافسة الصحية.
- تم انتقاد التلفزيون في البداية لأنه كان مصدر تشتيت محتمل وأحد أسباب الانحدار الأخلاقي . شككت الانتقادات بقيمته الإخبارية والتعليمية ورأت فيه رفاهية بدلاً عن ضرورة.
- واجهت أجهزة الصراف الآلي مخاوف تشمل الأخطاء التي قد تحدث بها أو عدم ثقة الناس بالتكنولوجيا التي تتحكم بأموالهم.
- كانت الهواتف الذكية موضع شك نظرًا لافتقارها إلى لوحة مفاتيح ولوجود ميزات محدودة وعمر بطارية قصير وغيرها, لكن تم تخفيف هذه المخاوف بفضل تحسينات الواجهة والشبكة والتحالفات الحكومية وأشكال جديدة للت monetization .
لحسن الحظ لدينا بروتوكولات حديثة ومتطورة توفر عند استخدامها بعناية (بدلاً عن عدم استخدامها) نهجاً متوازناً لا يقبل الاستخدام الأعمى ولا يرفض تماماً فائدة الذكاء الصناعي . بالإضافة إلى الأطر التي تساعد اتخاذ قرارات الطلب مقابل المخاطر, لدينا مجموعة مثبتة أدوات لتقييم الدقة والتحيز وضمان الاستخدام الأخلاقي .
لكي نكون أقل مقاومة وأكثر تمييزاً وربما شكوكيين متفائلين وسعداء, تشمل عينة هذه الأدوات الأقل وضوحاً:
| طريقة التقييم | ماذا تفعل… | أمثلة | ماذا تسعى إليه كـ ‘حقيقة’… |
|—————–|—————|——–|——————————-|
| كشف الهلوسة | تحديد الأخطاء الواقعية في مخرجات AI | اكتشاف عندما يذكر AI تواريخ تاريخية أو حقائق علمية بشكل خاطئ | يسعى لضمان دقة المحتوى الذي ينتجه AI |
| توليد مدعوم بالاسترجاع (RAG) | دمج نتائج النماذج المدربة مع مصادر إضافية لتضمين المعلومات الأكثر صلة | مساعد AI يستخدم مقالات الأخبار الحالية للإجابة على أسئلة حول الأحداث الأخيرة | معلومات حالياً ذات صلة وسياقية مستمدة from multiple inputs |
| قياس الدقة والاسترجاع وتسجيل F1 | قياس دقة واكتفاء مخرجات AI | تقييم قدرة نموذج تشخيص طبي للذكاء الصناعي للتعرف الصحيح للأمراض | تحقيق توازن بين الدقة والاكتفاء وأداء النموذج العام للذكاء الصناعي |
| اختبار التقاطع | اختبار أداء النموذج عبر مجموعات بيانات مختلفة | تدريب نموذج تحليل المشاعر استناداً لمراجعات الأفلام واختباره بناءً على مراجعات المنتجات | يسعى لضمان أداء النموذج بشكل جيد باستمرار عبر مجموعات بيانات مختلفة مما يدل على موثوقيته |
أربع توصيات للبقاء بناءً وشكوكيًّا عند استكشاف حلول ذكائية
بينما نستمر في التنقل خلال عصر الخوف والإثارة المرتبط بالذكاءِ الإصنَاعيّ, سيكون تبني نهوج قائمة على الشكوكية أمرٌ أساسي لضمان خدمة الابتكار لأفضل مصالح الإنسانية . إليكم أربع توصيات يجب مراعاتها وممارستها بشكل واسع :
- اطلب الشفافية: أصرّ على وجود تفسيرات واضحة للتكنولوجيا مع مستخدمين أو عملائهم يمكن الرجوع إليهم . بالإضافة إلى الموردين الخارجيين وجهات الاتصال الصناعية / الأكاديمية , يجب وضع نفس مستوى توقع الإعداد مع الفرق الداخلية بخلاف القانونية وتكنولوجيا المعلومات مثل المشتريات والموارد البشرية والمبيعات .
- تشجيع المشاركة القائمة أولاً وقبل كل شيء: تفشل العديد مِن المبادرات العليا لأن الأهداف قد تستبعد التأثيرات المتعلقة بزملائهم وربما المجتمع الأكبر . اسأل أولاً: كزملاءِ فريق غير هرمي , ما هو نهجُنا لفهم تأثيرِ الـAI بدلاً مِن تعيين مجموعة عمل تُدرِس وتُصنف أفضل خمس حالات استخدام .
- تابع بدقة التنظيم والسلامة والأخلاق وحماية الخصوصيات: بينما تقوم الاتحاد الأوروبي بتطبيق قانون الـAI الخاص به , وتحاول ولايات مثل كاليفورنيا بدء قوانين تنظيم الـAI المثيرة للجدل , بغض النظر عن موقفكَ فإن هذه اللوائح ستؤثرعلى قراراتكَ . قم بتقييم الآثار الأخلاقية لهذه التطورات الخاصة بـAI prioritizing human and societal impacts over scale, profit and promotion .
- تحقق مِن صحة ادعاءات الأداء: اطلب الأدلة وقم بإجراء اختبارات مستقلة عند الإمكان . اسأل عن طرق التقييم المذكورة أعلاه وهذا صحيح خصوصا عند العمل مع شركات وموردين جدد يعتمدون أساسا علي الـ’AI’.
الشكوكية مغذية لنا جميعا! نحن بحاجة لأساليب للتحرك بعيدًا عن الحديث اليومي والصخب! سواء كنتَ تعاني مِن شكٍ مُغذٍّ أم إعجابٍ مُميز فهذا ليس تنافس صفرى! مكسب المُتشائم أو المُشكِّكَ لا يؤدي لخسارة مماثلة لدى الآخرين المتفائلِين! أنا مذهولٌ بمزايا الـAI وأعتقد أنها ستساعدُ علينا الفوز وقواعد نجاحِهِ مبنيةٌ علي حكمٍ متواضع!
بطريقة ما وبالرغم مِن التحريض فإنَّ الشكوكية هي ضعف جذاب! إنها خيارٌ حكيم ينبغي تضمينه بكل دليل موظف لضمان تدقيق التكنولوجيا الجديدة بطريقة مسؤولة دون إنذار مزعجة!
مارس ستيفن راموس هو رئيس قسم التعلم بشركة كورنستون.