الجريمة والقانون

عزيزتي الآنسة غلوري، القضاة يؤكدون: الروبوتات ليست بشرًا! تفاصيل جديدة في قضية الهلوسات المثيرة

“عزيزتي الآنسة غلوري، الروبوتات ليست ‍بشرًا. من الناحية الميكانيكية، هي أكثر​ كمالًا منا؛ لديها⁣ ذكاء متطور‌ بشكل هائل، لكنها لا تمتلك ‌روحًا.”

بهذا الاقتباس من R.U.R. (روبوتات روسوم العالمية)، وهي مسرحية خيال علمي كتبها‍ الكاتب التشيكي كاريل​ تشابيك عام ⁤1920، يفتح القاضي الفيدرالي كاي ن. سكوت في المنطقة الشرقية من بنسلفانيا باب الحديث عن حالة جديدة لمحامٍ في ورطة​ بسبب تقديمه ‌لقضايا وهمية.

قبل يومين ⁤فقط كتبت عن حالة مشابهة أخرى، حيث أطلق القاضي ‌سراح المحامي بعد أن اعتبر أخطاءه ⁤في ‍الاستشهاد ⁢”خطأً شريفًا”.

لكن الأمر⁤ لم ​يكن كذلك في هذه الحالة، حيث استنتج القاضي أن المحامي راجا‌ راجان قد “أوكل عمله إلى خوارزمية”، ففرض عليه غرامة قدرها 2500 دولار وأمره بإكمال ‍برنامج التعليم المستمر حول‌ الذكاء الاصطناعي ‌وأخلاقيات القانون،⁣ وذلك لانتهاكه القاعدة 11 من قواعد ​الإجراءات المدنية الفيدرالية التي تتطلب من المحامين⁢ التأكيد‍ على صحة ملفاتهم القانونية.

كتب القاضي: “[ب]خلاف الحالات​ التي استشهد بها السيد راجان، فإن القاعدة 11 ​ليست اصطناعية؛ بل تفرض واجباً حقيقياً على المحامين – وليس على الخوارزميات – لـ ‘التوقف والتفكير والتحقيق والبحث’ قبل تقديم الأوراق إما لبدء دعوى أو لإجراء التقاضي.”

قصة مألوفة للغاية

القصة الخلفية أصبحت مألوفة الآن بفضل سلسلة متزايدة من ⁢حالات مماثلة. بعد أن قدم راجان طلبين للمحكمة، كانت المحكمة “مرتبكة”⁢ لرؤية أنه لا يمكن العثور على قضيتين في أي أداة بحث⁤ قانوني.

استشهد راجان أيضًا بقضيتين لمقترحات غير مرتبطة تمامًا بالنقاط القانونية التي قرروها، واستشهد بقضيتين أخريين لم تعدا صالحتي القانون.

عندما أمر ⁤القاضي سكوت راجان بتقديم سبب لعدم تأديبه، قال ‍راجان ⁢للمحكمة إنه “لم يكن يتوقع أبداً” أن يقدم الذكاء⁢ الاصطناعي قضايا مصطنعة.

قال للمحكمة إنه بينما كان قد ‌استخدم‌ سابقاً Casetext لمساعدته في مراجعة المذكرات القانونية، فإنه ​استخدم ‍ChatGPT لأول مرة في هذه الحالة ولم ‌يعتقد أبداً أنه سيصنع قضايا مصطنعة لدعم النتائج التي أرادها.

“بعيداً عن الاستفسار المعقول ⁤حول المحتويات القانونية الموجودة في مذكراته ، وثق السيد راجان بشكل أعمى بخوارزمية لم يستخدمها من قبل”، كتب القاضي.

“لم يقم بأي بحث​ حول فعالية ChatGPT كأداة قانونية ، ولم يقم بأي بحث حول موثوقيتها مقارنة ببرنامج Case Text (sic) ، والأسوأ من ذلك كله ،⁤ عدم القيام بأي بحث مستقل حول الحالات القانونية⁣ المذكورة.”

Add the judge: “هذه المحكمة تعترف بأن التكنولوجيا ⁤تتطور ⁤دائمًا ، وأن أدوات البحث القانوني ليست استثناءً. ولكن إذا⁤ تم التعامل معها ⁣دون تدقيق​ حكيم ، يمكن أن يتحول استخدام الذكاء الاصطناعي إلى إهمال صريح.”

في هذه الحالة, أكد القاضي, كان إهمال المحامي هو فشله في التحقق من الحالات التي استشهد بها.

< p >“لا يوجد شيء في قاعدة 11 يمنع تحديداً الاعتماد على الذكاء الاصطناعي كمساعدة للبحث, لكن قاعدة ⁢11 توضح أن ​المحامي الذي يوقع هو المدقق ​النهائي لجميع المطالبات القانونية والواقعية الواردة‍ في طلباتهم.”⁢

< p >لذلك, فرضت المحكمة⁢ عقوبة مالية قدرها $2,500 وطلبت منه إكمال برنامج تعليمي معتمد ⁢لمدة ساعة واحدة يتعلق بكلٍّ من الذكاء الاصطناعي وأخلاقيات القانون.< / p >

< p >< em >الرأي الكامل:‍ Bunce v. Visual Technology Innovations, Inc., E.D. Pa. 23-cv-01740 (27 فبراير 2025).< / em >< / p >

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى