كتاب جديد يكشف زيف ضجة الذكاء الاصطناعي وكيفية اكتشافها!
هذا مثال صغير على كيفية فشل الذكاء الاصطناعي. يجمع أرفيند نارايانان وساياتش كابور العشرات من الأمثلة الأخرى في كتابهما الجديد، زيت الثعبان للذكاء الاصطناعي — العديد منها له عواقب أكثر قلقًا بكثير من إزعاج صحفي علمي واحد. يكتبون عن أدوات الذكاء الاصطناعي التي تدعي التنبؤ بالنجاح الأكاديمي، واحتمالية ارتكاب شخص ما جريمة، ومخاطر الأمراض، والحروب الأهلية، والاحتيال في الرعاية الاجتماعية (SN: 2/20/18). على طول الطريق، يدمج المؤلفون العديد من القضايا الأخرى المتعلقة بالذكاء الاصطناعي، بما في ذلك المعلومات المضللة، ونقص الموافقة على الصور وبيانات التدريب الأخرى، والمطالبات الزائفة بحقوق الطبع والنشر، والتزييف العميق (Deepfakes)، والخصوصية وتعزيز الفوارق الاجتماعية (SN: 10/24/19). يتناولون ما إذا كان يجب علينا أن نخاف من الذكاء الاصطناعي ويستنتجون: “يجب أن نكون أكثر قلقًا بشأن ما سيفعله الناس باستخدام الذكاء الاصطناعي بدلاً مما سيفعله الذكاء الاصطناعي بمفرده.”
يعترف المؤلفون بأن التكنولوجيا تتقدم بسرعة. قد تكون بعض التفاصيل قديمة — أو على الأقل أخبارًا قديمة — بحلول الوقت الذي يصل فيه الكتاب إلى يديك. ويجب أن تتعامل المناقشات الواضحة حول الذكاء الاصطناعي مع نقص الإجماع حول كيفية تعريف المصطلحات الرئيسية ، بما في ذلك معنى الذكاء الاصطناعي نفسه. ومع ذلك ، فإن نارايانان وكابور يحققان هدفهما المعلن بشكل مباشر: تمكين الناس من تمييز الذكاء الاصطناعي الذي يعمل بشكل جيد عن زيت الثعبان للذكاء الإصناتي ، والذي يعرفونه بأنه “الذكاء الإصناتي الذي لا يعمل ولا يمكنه العمل كما هو معلن.”
Narayanan هو عالم حاسوب في جامعة برينستون ، وكابور طالب دكتوراه هناك. تم تصور فكرة الكتاب عندما انتشرت شرائح عرض قدمها نارايانان عام 2019 بعنوان “كيفية التعرف على زيت الثعبان للذكاء الإصناتي”. تعاون مع كابور ، الذي كان يأخذ دورة دراسية كان نارايانان يقوم بتدريسها مع أستاذ آخر حول حدود التنبؤ في السياقات الاجتماعية.
يستهدف المؤلفون مباشرةً الذكاء الإصناتي الذي يمكنه زعمًا التنبؤ بالأحداث المستقبلية. “إنه في هذا المجال حيث يتمركز معظم زيت الثعبان للذكاء الإصناتي” ، يكتبون. “الذكاءات التنبؤية لا تعمل فقط اليوم ولكنها لن تعمل أبدًا بسبب الصعوبات الكامنة في توقع السلوك البشري.” كما خصصوا فصلًا طويلًا لأسباب عدم قدرة الذكاءات الإصناتية على حل مشاكل تعديل محتوى وسائل التواصل الاجتماعي (كان كابور قد عمل سابقاً لدى Facebook للمساعدة في إنشاء ذكاءات إصناتية لتعديل المحتوى). أحد التحديات هو أن AI يكافح مع السياق والدقة الدقيقة؛ كما تميل وسائل التواصل الاجتماعي إلى تشجيع المحتوى الكاره والخطر.
المؤلفون أكثر سخاوة قليلاً تجاه AI الإبداعي (Generative AI) حيث يعترفون بقيمته إذا تم استخدامه بذكاء. لكنهم يشيرون أيضًا إلى أنه خلال قسم بعنوان “أتمتة الهرطقة” : “ChatGPT جيد بشكل مذهل عند الحديث بطريقة مقنعة عن أي موضوع يمكن تصوره . لكن ليس هناك مصدر للحقيقة أثناء التدريب.” ليس فقط لأن بيانات التدريب يمكن أن تحتوي على أكاذيب – فالبيانات هي أساساً نصوص إنترنت بعد كل شيء – ولكن أيضًا لأن البرنامج مُحسَّن ليبدو طبيعيًا وليس بالضرورة لامتلاك أو التحقق من المعرفة.
أود أن أضيف أنه الاعتماد المفرط على AI الإبداعي يمكن أن يُثبط التفكير النقدي وهو الجودة البشرية التي تقع جوهر هذا الكتاب.
عندما يتعلق الأمر بأسباب وجود هذه المشاكل وكيفية تغييرها ، يقدم نارايانا وكابور وجهة نظر واضحة: لقد كانت المجتمع متساهلة للغاية تجاه صناعة التكنولوجيا . التنظيم الأفضل أمر ضروري . “لسنا بخير بترك مستقبل AI للأشخاص الذين هم حاليًا مسؤولين” , كتبوا.
This book is a worthwhile read whether you make policy decisions, use AI in the workplace or just spend time searching online.. إنه تذكرة قوية لكيفية تسلل الـAI بالفعل إلى حياتنا - ونداءة مقنعة للتعامل بحذر عند التعامل معه.
اشترِ زيت الثعبان للذكاءِ الصناعىمن Bookshop.org.. Science News< em >هي شريك لـBookshop.org وستربح عمولة عن عمليات الشراء التي تتم عبر الروابط الموجودة في هذه المقالة.< / em > p>