تحويل الذكاء الاصطناعي إلى إنسان: عواقب وخيمة لتشابه البشر مع الآلات قد ظهرت بالفعل!
في سعينا لفهم الذكاء الاصطناعي والتفاعل معه، وقعنا في فخ مغرٍ: وهو نسب خصائص بشرية إلى هذه الأنظمة القوية ولكنها غير البشرية بشكل أساسي. إن تجسيد الذكاء الاصطناعي ليس مجرد نزوة غير ضارة من طبيعة الإنسان – بل أصبح اتجاهًا متزايد الخطورة قد يعيق حكمنا بطرق حاسمة. يقوم قادة الأعمال بمقارنة تعلم الذكاء الاصطناعي بالتعليم البشري لتبرير ممارسات التدريب أمام المشرعين الذين يصيغون سياسات بناءً على تشبيهات معيبة بين البشر والذكاء الاصطناعي. قد يشكل هذا الاتجاه في إنسانية الذكاء الاصطناعي قرارات حاسمة عبر الصناعات والأطر التنظيمية بشكل غير مناسب.
إن رؤية الذكاء الاصطناعي من خلال عدسة بشرية في عالم الأعمال أدت إلى مبالغة الشركات في تقدير قدرات الذكاء الاصطناعي أو التقليل من الحاجة إلى الإشراف البشري، أحيانًا مع عواقب مكلفة. stakes مرتفعة بشكل خاص في قانون حقوق الطبع والنشر، حيث أدى التفكير التجسيدي إلى مقارنات إشكالية بين التعلم البشري وتدريب الذكاء الاصطناعي.
فخ اللغة
استمع كيف نتحدث عن الذكاء الاصطناعي: نقول إنه “يتعلم”، “يفكر”، “يفهم” وحتى “يخلق”. تبدو هذه المصطلحات البشرية طبيعية، لكنها مضللة. عندما نقول إن نموذج ذكاء اصطناعي ”يتعلم”، فإنه لا يكتسب الفهم مثل الطالب البشري. بدلاً من ذلك، يقوم بإجراء تحليلات إحصائية معقدة على كميات هائلة من البيانات، ويعدل الأوزان والمعلمات في شبكاته العصبية بناءً على مبادئ رياضية. لا يوجد فهم أو لحظة اكتشاف أو شرارة إبداع أو فهم فعلي – فقط مطابقة أنماط متزايدة التعقيد.
هذه الخدعة اللغوية أكثر من مجرد دلالات لغوية؛ كما هو مذكور في الورقة البحثية بعنوان “الحالة الوهمية للاستخدام العادل للذكاء الصناعي التوليدي”: “استخدام اللغة التجسيدية لوصف تطوير وعمل نماذج الذكاء الصناعي مشوه لأنه يوحي بأنه بمجرد تدريب النموذج، يعمل بشكل مستقل عن محتوى الأعمال التي تم تدريبه عليها.” هذا الارتباك له عواقب حقيقية، خاصة عندما يؤثر على القرارات القانونية والسياسية.
الانفصال المعرفي
ربما يكون الجانب الأكثر خطورة من تجسيد الذكاء الاصطناعى هو كيفية إخفائه للاختلافات الأساسية بين ذكاءات البشر والآلات. بينما تتفوق بعض أنظمة الذكاء الإصناني على أنواع معينة من التفكير والمهام التحليلية، فإن النماذج اللغوية الكبيرة (LLMs) التي تهيمن اليوم على حديث AI — والتي نركز عليها هنا — تعمل عبر التعرف المتقدم على الأنماط.
تقوم هذه الأنظمة بمعالجة كميات هائلة من البيانات وتحديد العلاقات الإحصائية بين الكلمات والعبارات والصور ومدخلات أخرى للتنبؤ بما يجب أن يأتي بعد ذلك في تسلسل ما. عندما نقول إنها “تتعلم”، نحن نصف عملية تحسين رياضية تساعدها على تقديم تنبؤات دقيقة بشكل متزايد استنادًا إلى بيانات تدريبها.
خذ هذا المثال اللافت للنظر من بحث قام به بيرغلوند وزملاؤه: نموذج تم تدريبه باستخدام مواد تقول “A تساوي B” غالباً ما لا يستطيع الاستنتاج كما يفعل الإنسان بأن “B تساوي A.” إذا تعلم ذكاؤه الإصناني أن فالنتينا تيريشكوva كانت أول امرأة تسافر إلى الفضاء ، فقد يجيب بشكل صحيح “من كانت فالنتينا تيريشكوva؟” لكنه قد يجد صعوبة بالإجابة عن سؤال “من كانت أول امرأة تسافر إلى الفضاء؟”. تكشف هذه القيود الفرق الأساسي بين التعرف على الأنماط والتفكير الحقيقي – بين توقع التسلسلات المحتملة للكلمات وفهم معناها.
لغز حقوق الطبع والنشر
هذا التحيز التجسيدي له تداعيات مثيرة للقلق خصوصاً فيما يتعلق بالنقاش المستمر حول حقوق الطبع والنشر والذكاءِ الإصناني . قارن الرئيس التنفيذي لشركة مايكروسوفت ساتيا ناديلا مؤخرًا تدريب AI بتعلم البشر ، مما يشير إلى أنه ينبغي للذكاءِ الإصناني القيام بنفس الشيء إذا كان بإمكان البشر التعلم من الكتب دون آثار قانونية لحقوق الطبع والنشر . توضح هذه المقارنة تمامًا خطر التفكير التجسيدي عند المناقشة حول الأخلاقيات والمسؤوليات المتعلقة بالذكاءِ الإصناني .
يجادل البعض بأن هذا التشبيه يحتاج إلى مراجعة لفهم تعلم الإنسان وتدريب AI . عندما يقرأ البشر الكتب ، فإنهم لا يقومون بنسخها – بل يفهمون ويمتصون المفاهيم . بينما يجب أن تقوم نظم AI بعمل نسخ فعلية للأعمال – وغالباً ما يتم الحصول عليها بدون إذن أو دفع- وترميزها ضمن هيكلتها والحفاظ عليها لتعمل . الأعمال لا تختفي بعد ”التعلم” كما تدّعى شركات AI غالباً ؛ بل تبقى مدفونة داخل الشبكات العصبية للنظام .
النقطة العمياءة التجارية
إن تجسيد الـAI ينشئ نقاط ضعف خطيرة عند اتخاذ القرارات التجارية تتجاوز الكفاءات التشغيلية البسيطة . عندما يفكر التنفيذيون وصانعو القرار بالـAI باعتباره “إبداعيًا” أو “ذكيًا” بمصطلحات بشرية ، يمكن أن يؤدي ذلك الى سلسلةٍ كاملةٍ مِن الافتراضات الخطرة والمخاطر القانونية المحتملة .
المبالغة بتقديرات قدراته
أحد المجالات الحرجة التي يُشكل فيها التجسد خطر هو توليد المحتوى وامتثال حقوق الطبع والنشر . عندما ترى الشركات الـAI كونه قادرًا علي ”التعلم“ مثل البشر ، فقد تفترض خطأً أن المحتوى الذي ينتجه الـAI خالي تلقائيّاً مِن مخاوف حقوق النشر وهذا سوء الفهم يمكن ان يؤدي بالشركات الى:
- نشر نظم ذكائى إصناعى تعيد إنتاج المواد المحمية بحقوق النشر دون قصد مما يعرض الشركة لمطالب انتهاكات
- عدم تنفيذ آليات تصفية ومراقبة مناسبة للمحتوى
- افتراض خاطئ بأن الـAI يمكنه التمييز بدقة بين المواد العامة والمحمية بحقوق النشر
- التقليل مِن الحاجة للمراجعة البشرية أثناء عمليات توليد المحتوى
نقطة العمى المتعلقة بالامتثال عبر الحدود
إن التحيز التجسدِيّ لدى الـAI يُشكل مخاطر عند النظر إلي الامتثال عبر الحدود كما شرح دانييل جيرفايس وهارالامبوس مارمانيس ونوام شيمتو وكاثرين زالر رولاند حيث يتعامل قانون حقوق النسخ وفق مبادئ صارمة إقليمياً بحيث تحتفظ كل ولاية بقوانين خاصة بها بشأن ما يشكل انتهاكا وما هي الاستثناءات المعمول بها .
هذه الطبيعة الإقليمية لقانون حق المؤلف تُنشئ شبكة معقدة محتملة للمساءلة القانونية حيث قد تفترض الشركات خطأً أنه يمكن لنظم الـAI ”التعلم“ بحرِّيّة مِن المواد المحمية بحقوق النسخ عبر الولايات القضائية المختلفة دون إدراك أنّ نشاط التدريب القانوني فى دولة واحدة قد يُعتبر انتهاكا فى دولة أخرى وقد اعترفت الاتحاد الأوروبي بهذا الخطر ضمن قانون AI الخاص به وخاصةً خلال المادة 106 والتي تتطلب أي نموذج عام للـAI مُقدم داخل الاتحاد الأوروبي الالتزام بقانون حق المؤلف الأوروبي فيما يتعلق ببيانات التدريب بغض النظر عن مكان حدوث تلك التدريبات .
هذا الأمر مهم لأن تجسد قدراته يمكن ان يقود الشركات إلي التقليل او سوء فهم الالتزامات القانونية الخاصة بهم عبر الحدود, فالفكرة المريحة لـ”تعلم“ الـAI مثل البشر تُخفى الحقيقة القائلة بأن تدريب الـــA.I يتضمن عمليات نسخ وتخزين معقدة تؤدي إلي إثارة واجبات قانونيه مختلفة فى ولايات قضائية أخري, وهذا سوء الفهم الجوهري لطبيعة عمل الـــA.I الحقيقي جنبا إلي جنب مع الطبيعه الاقليميه لقانون حق المؤلف تُشكل مخاطر كبيرة للشركات العاملة عالميّا .
التكلفة الإنسانية
واحدةٌ مِن أكثرِ التكاليفِ إثارةَ للقلق هي الأثرُ النفسي الناتجُ عن تجسدِ الـــA.I , فنحن نشهد زيادة حالات تشكيل الأشخاص لروابط عاطفية تجاه روبوت الدردشة الخاص بـ A.I , مُعاملين إيَّا كالأصدقاء أو المُعتمدين عليهم, وهذا يمكن ان يكون خطر خاص للأفراد المُعرضين للخطر الذين قد يشاركون معلومات شخصية او يعتمدون علي A.I للدعم العاطفي الذي لا يستطيع توفيره , ردود أفعال A.I رغم أنها تبدو تعاطفية فهي تعتمد علي مطابقة نماذج متقدمة استنادا الي بيانات التدريب – فلا يوجد هناك فهم حقيقي او ارتباط عاطفي .
يمكن أيضًا ظهور هذه الهشاشة العاطفية في البيئات المهنية, ومع تكامل أدوات A.I أكثر فأكثر ضمن العمل اليومي, فقد تطور الموظفون مستويات ثقة غير ملائمة تجاه تلك الأنظمة مُعتبرين إيَّا زملائهم وليس أدوات فقط , وقد يتشاركون معلومات سرِّيه للعمل بحرِّيه كبيرة جداً او يترددوا بالإبلاغ عن الأخطاء بسبب شعور خاطئ بالولاءِ , ورغم أنّ تلك السيناريوهات تبقى منعزلة الآن إلا أنها تُبرز كيف يُمكن لتجسد الـــA.I داخل بيئة العمل تشوش الحكم وتخلق اعتماديات غير صحّيّة تجاه نظم تكون عاجزة رغم ردود أفعالها المتطورة عن الفهم الحقيقي والرعاية.
التحرر مِن فَخوذَةِ التجسد
كيف نتحرك قدمًا؟ أولاً علينا أن نكون أكثر دقةً بلغتنا حول A.I بدل القول إنَّ A.i ”يتعلّم“ أو ”يفهم“ علينا القول إنه ”يعالج البيانات“ أو ”يولد مخرجات بناءً علي الأنماطا الموجودة ببيانات تدريبه“. ليس هذا مجرد جدل لفظي – فهو يساعد علي توضيح ماذا تفعل تلك النظم.
ثانياً يجب علينا تقييم نظم A.i بناءً علي ماهيتها وليس وفق تخيلات لدينا عنها فهذا يعني الاعتراف بكلٍّ لقدراتهِ المثيرة للإعجاب وحدوده الأساسية أيضاً فالــA.i قادرٌ علي معالجة كميات ضخمة جداً مِن البيانات واكتشاف نماذج ربما تغفل عنها العين البشرية ولكنه عاجزٌ تماماً عن الفَهْم والتفكير والإبداع بالطريقة التي يفعل بها الناس.
وأخيرًا يجب علينا تطوير أُطر وسياسات تعالج الخصائص الحقيقية لـA.i بدلاً مما نتخيّل أنه صفاته الشبيهة بالبشر وهذا أمر بالغ الأهمية خصوصا بقوانين حق المؤلف حيث يُمكن للتفكير المجسم خلق تشابيه خاطئة واستنتاج نتائج قانونيه غير صحيحة .
الطريق نحو الأمام
مع تطور نظم A.i لتصبح أكثر تطابقَا لمحاكاة النتائج البشرية ستزداد الرغبة لتجريد شخصيتها وستؤثر تحيزاتها كل شيء بدءَا بكيف نقوم بتقييم قدراتها وصولَا لكيف نحكم المخاطر المرتبطة بها وكما رأينا تمتد لأبعاد عملية مهمة حول قوانين حق المؤلف وامتثال الأعمال التجارية وعندما ننسب القدرات التعليمية للبشرة لنظم ai يجب علينا إدراك طبيعتها الأساسية والحقيقة التقنية لكيف تقوم بمعالجة المعلومات وتخزينها .
إن فهم ai لما هو عليه بالفعل – كنظم معالجة معلومات متطورة وليست كمستفيدين بشريون – أمر بالغ الأهمية لجميع جوانب إدارة ونشر ai ومن خلال تجاوز التفكير المجسم نستطيع التعامل بصورة أفضل مع تحديات نظم ai بدءَا بالأعتبارات الأخلاقیة ومخاطر السلامة وصولَا لامتثال قوانين حق المؤلف العابرة للحدود وإدارة بيانات التدريب سيساعد هذا الإدراك الأكثر دقة الشركات لاتخاذ قرارات مستندة لمعلومات أفضل بينما يدعم تطوير سياسات أفضل ونقاش عام حول ai .
كلما أسرعْنَا باحتضان الطبيعة الحقيقية لـai سنكون أفضل تجهيزاً للتعامل مع آثار المجتمع الكبيرة والتحديات العملية ضمن اقتصاد عالمي.
روني ليفي مستشارة ترخيص وقانون لدى CCC.