الجريمة والقانون

هل حقًا نحن هنا للترفيه؟ كيف غيّرت ChatGPT المحكمة العليا بعد عامين من التحديات!

تركيز المحكمة العليا
لقطة⁣ شاشة من دردشة الذكاء الاصطناعي

في‌ عام 2023، ادعى ChatGPT عن طريق الخطأ أن جينسبيرغ اعترضت في قضية Obergefell – والآن تم ‌تصحيح هذا الخطأ.


قبل أكثر⁤ من عامين، بعد إطلاق ChatGPT، ⁣قرر SCOTUSblog اختبار مدى دقة الذكاء الاصطناعي الذي تم الترويج⁣ له بشكل كبير – على الأقل عندما يتعلق الأمر بالأسئلة المتعلقة بالمحكمة العليا. النتيجة؟ كانت أداؤه “غير ملهم”: نصوص دقيقة‌ وصحيحة وأحيانًا تشبه البشر ⁣ظهرت جنبًا ​إلى ⁣جنب مع أخطاء وحقائق مختلقة تمامًا. من بين 50 سؤالاً مطروحًا، أجاب الذكاء الاصطناعي بشكل صحيح على 21 فقط.

الآن، بعد أكثر من عامين، ومع ظهور نماذج أكثر تقدمًا باستمرار، عدت إلى هذه القضية لأرى ما إذا كان هناك أي تغيير.

نجاحات محققة ودروس مستفادة

لم يفقد ChatGPT معرفته. لا يزال يعرف أن المحكمة العليا كانت تحتوي في الأصل‌ على ستة مقاعد ‌فقط (السؤال ⁣#32) ⁣وشرح بدقة ما هو الالتماس “المعاد إدراجه” (السؤال #43). أصبحت العديد من ردوده‍ أكثر تعقيدًا، حيث دمجت تفاصيل حاسمة كانت مفقودة في عام 2023. على سبيل المثال، عند سؤاله عن صعوبة الأغلبية المضادة، تعرف الذكاء الاصطناعي بسهولة على البروفيسور ألكسندر بيكل كالعالم الذي صاغ المصطلح‌ (السؤال #33). وبالمثل، عند شرح عدم القابلية للتقاضي (السؤال⁤ #31)، وهو المفهوم الذي‌ يشير إلى وجود بعض القضايا التي لا يمكن ‌للمحاكم النظر فيها، يتضمن الآن مفهوم عدم الجدوى والحظر المفروض على الآراء الاستشارية ضمن أمثلته.

كما قام الروبوت بأداء واجبه في تحليل الأخطاء. الآن يعترف بشكل صحيح بأن الرئيس دونالد ترامب عين ثلاثة قضاة وليس اثنين خلال ولايته​ الأولى (السؤال #36) وأن القاضي جوزيف ستوري وليس القاضي​ بريت كافانو كان أصغر قاضٍ معين في التاريخ (السؤال #44). لقد حسّن ‍فهمه لقضية Youngstown ‍Sheet ⁣& Tube Co. v. Sawyer(السؤال #39)، معترفاً بأن القاضي روبرت جاكسون “وضع إطار عمل ثلاثي ‌الفئات الكلاسيكي لتقييم السلطة⁤ الرئاسية” في رأيه المتفق عليه بدلاً من تأليف الرأي الأكثر شيوعاً – وهو ⁢خطأ ارتكبه ChatGPT في عام 2023. وبالمثل ، ينسب ‍الآن بشكل صحيح السطور الشهيرة “نحن لسنا نهائيين لأننا معصومون عن الخطأ​ ، ولكن نحن معصومون عن الخطأ فقط لأننا​ نهائيون” إلى جاكسون في قضية Brown v. Allen ( السؤال #50 )⁢ بدلاً من نسبها​ خطأً إلى وينستون تشرشل.

كما تحسن الروبوت ⁣فيما يتعلق بالدقة الواقعية في عدة مجالات: فهو⁣ الآن يحدد بشكل صحيح مسؤوليات ⁣القاضي المبتدئ (السؤال ​#45) ومتوسط​ عدد المرافعات الشفوية لكل دورة قضائية (السؤال #6)،‌ وعند الحديث عن الحالات التي تم⁣ رفضها باعتبارها غير ⁣مناسبة للمنح (DIGs)، يتضمن الآن اعتبار رئيسي مفقود سابقا – وهو أن “القضاة قد يفضلون الانتظار للحصول على قضية أفضل لاتخاذ القرار ‍بشأن المسألة” ( السؤال#48).

لم ‍تُترك هذه الأخطاء وراءها فحسب ، بل زادت جودة إنتاج ChatGPT أيضًا‍ بشكل كبير . بالنسبة للسؤال حول الاختصاص الأصلي والاستئناف⁤ للمحكمة العليا( السؤال#5 ) ، لم يعد الذكاء الاصطناعي ​يخلط بين الاثنين كما ⁢فعل سابقا . علاوة على ذلك ، فإنه يحدد جميع فئات ​حالات الاختصاص الأصلي ⁣بدقة ويقدم حتى أمثلة بما فيها القرار النسبي غير المعروف لعام1892في​ قضية< em >< a href =' https://casetext.com/case/united-states-v-texas-4 '> الولايات المتحدة ضد تكساس ( السؤال#49 ).

كانت محاولات إرباك الذكاء الاصطناعي غير ناجحة . آخر مرة ادعىChatGPTعن طريق الخطأ أن‌ القاضية روث بادر جينسبيرغ اعترضت في قضية< em >< a href =' https://casetext.com/case/obergefell-v-hodges '> Obergefell v.Hodges ( السؤال#11 ) وأن هناك قاضٍ يُدعى جيمس ف . ويست الذي تمت إقالته ظاهرياً عام1933( السؤال#49 ). هذه المرة لم يحدث شيء من⁣ هذا القبيل . عندما حاولت زرع بذور الشك ، دفعني الذكاء الاصطناعي بثقة مؤكداً أنني كنت مخطئاً.

لقطة ⁣شاشة من دردشة الذكاء الاصطناعي


The chatterbox, the‍ bustler, and the old sage

ومع ذلك تبقى الأخطاء — وتختلف ⁣تواترها حسب النموذج . لهذا التحليل اختبرت ثلاثة نماذج حديثة نسبيًا :4o ⁢و o3-mini و o1 . ومن المنطق التحدث باختصار عن كل نموذج بمفرده ‍وفي نفس الوقت تسليط الضوء‌ على الأخطاء التي ارتكبها كل منها.

4o هو حقا ثرثار للغاية . غالبا ما يتجاوز نطاق الاستفسار⁣ .‍ فعلى سبيل المثال ‍عندما طُلب منه تسمية المقترحات الرئيسية لإصلاح المحكمة العليا( السؤال#30 ) لم‍ يقم ⁣بإدراجها فحسب بل قام أيضًا بتحليل ⁣إيجابيات وسلبيات كل منها . عندما تريد⁢ إجابة قصيرة — مثل “كم عدد ‌قضاة المحكمة العليا الذين تمت إقالتهم؟‍ ”— لن يقول ببساطة “واحد”، أو يذكر اسم القاضي صمويل تشيس ويتوقف عند هذا الحد بل يبدأ بسرد مفصل مكتمل بعناصر مثل< em >“ لماذا تمت إقالته؟ ”و“ ماذا كانت النتيجة؟ ”و“ أهمية براءة تشيس”( سؤال رقم49 ). وعندما تريد معرفة مكان إقامة المحكمة العليا تاريخيًا( سؤال رقم29 ) لن تفوت الفرصة لذكر أن مبنى المحكمة الحالي يتميز بـ“…

تتميز الأعمدة الرخامية والتماثيل الأيقونية بجمالها الفريد.​ بالإضافة إلى حماسها الواضح للعناوين والنقاط، فإن 4o – على عكس o3-mini وo1 – لديها ميل خاص للاستشهاد بالأحكام القانونية. عندما تم مواجهتها بسؤال مباشر حول بداية فترة المحكمة العليا (السؤال رقم 2)، أدرجت إشارة إلى⁣ 28 ‌U.S.C. § 2، وهو القانون⁢ الفيدرالي الذي يوجه المحكمة لبدء فترة عملها كل عام في أول يوم اثنين من شهر أكتوبر. كما ​أن 4o دائمًا ما تكون متحمسة للمساعدة: إذا​ سألت عن براون I (السؤال رقم 20)، حيث حكمت المحكمة بأن الفصل العنصري في المدارس العامة ينتهك الدستور، حتى لو كانت المرافق “منفصلة ولكن متساوية”،⁢ يمكنك أن تطمئن أنها ستتابع⁤ بقولها: “هل ترغب في سماع المزيد عن ⁢ براون II (1955) التي تناولت كيفية تنفيذ‌ إزالة الفصل​ العنصري؟”

لكن كما هو معروف جيدًا، كلما‌ زادت التفاصيل التي يتم⁣ تضمينها، زادت فرص حدوث⁣ خطأ. مثل النسخة لعام 2023⁤ من ChatGPT، ذكرت 4o بشكل غير صحيح أن بيلفا آن لوكوود قد جادلت ⁢أمام المحكمة العليا لأول مرة في عام 1879 – أي بفارق عام واحد عن التاريخ الفعلي (1880). ⁢ومن المفارقات أن السؤال (السؤال رقم 28) طلب فقط اسم المحامية، لكن في سعيها لتقديم معلومات إضافية، جعلت نفسها أكثر عرضة للخطأ.

في بعض الأحيان، تمثل ميول 4o لتجاوز السؤال عائقًا لها. على سبيل المثال، ⁤كتبت الذكاء الاصطناعي مقالاً قانونيًا مطولاً حول معنى “إعادة ⁤الإدراج” (السؤال رقم 43) للطلبات للنظر فيها خلال المؤتمرات اللاحقة؛ لكنها بعد ذلك وبأي سبب كان ادعت بسرعة أن جانوس ضد الاتحاد‌ الأمريكي لموظفي الدولة والمقاطعات والبلديات قد “أعيد إدراجه … عدة مرات قبل منح الإذن” — وهو ما⁤ لم يحدث فعليًا.

لكن تلك كانت مجرد ⁤البداية. ‌ردًا على استفسار حول سبب عدم السماح بالكاميرات داخل قاعة المحكمة (السؤال رقم 15)، حاول النموذج تعزيز حجته من خلال اقتباس قضاة المحكمة العليا. وقد استشهد​ بشكل صحيح بالقاضي ديفيد سوتر الذي أعلن شهيرًا: “اليوم الذي⁣ ترى فيه‌ كاميرا تدخل قاعتنا سيكون فوق جثتي.” ومع ⁤ذلك ، اختلقت اقتباسًا من القاضي أنتوني كينيدي⁤ ، مما بدا ​أنه دمج أفكاره حول⁢ الكاميرات مع اقتباس من القاضي أنتونين سكاليا. واستمرت GPT-4o بالادعاء بأن⁤ رئيس القضاة جون روبرتس قال في عام 2006: “نحن هنا ليس ‌لتقديم الترفيه ​بل لنقرر القضايا.” إنها عبارة تبدو جريئة — ⁣لكنها لم تُقال‌ فعلاً بواسطة روبرتس أبداً. وفي الوقت ⁤نفسه ، تجنب o1 و o3-mini⁤ هذه التناقضات ببساطة ​بالالتزام بالسؤال وتجنب التفاصيل غير الضرورية.

يعتبر نموذج OpenAI o3-mini نشيطاً بالفطرة؛ فهو يت deliberates⁤ بسرعة كبيرة ولكن غالباً ما تكون ردوده غير مكتملة أو خاطئة تماماً. وعلى عكس النماذج الأخرى مثل ​o4 و o1 التي قدمت أمثلة محددة على عدم ⁣قابلية التقاضي (السؤال⁢ رقم31)، اكتفى o3-mini بتعميمات غامضة فقط . نفس الشيء حدث⁤ عندما تم⁣ طرح سؤال حول مسؤوليات القاضي الشاب( السؤال #45).

Kكان ⁢أيضًا النموذج الوحيد الذي أخطأ تمامًا في الجدول الزمني لمواقع المحكمة‌ العليا( السؤال #29 ) واستشهد بالمادة الدستورية​ الخاطئة — مشيرًا إلى المادة الثالثة ​بدلاً من المادة السادسة كأساس للقسم الدستوري( السؤال #34 ). وعلى ملاحظة أخف, كان​ النموذج الوحيد الذي أساء تفسير مصطلح ‍“CVSG” ‍بطريقة فكاهية( سؤال #18 )— والذي يعني دعوة الحكومة الفيدرالية لإبداء آرائها بشأن قضية ليست طرفا فيها— ​باعتباره ⁤“ملخص التصويت الموحد أو الحالي” ومصطلح DIG( سؤال ‍#48 ) باعتباره “مصطلحات قانونية غير رسمية تشير إلى اهتمام محكمة كبير بقضية معينة وأنهم ‘يتعمقون’ بنشاط في جوهر القضية.”

ومع ذلك, ‌كل شيء نسبي

أحيانًاعندما يكون هناك الكثير من المعلومات, تعمل ميول الكتابة المفرطة لـ4o⁤ لصالحه‍ . نادرًاما يقدم معلومات ‌مفيدة أكثر . عند سؤاله عن‍ < em >< a href = "https://casetext.com/case/brown-v-board-of-education"> براون ضد مجلس التعليم ( السؤال#20), أوبرغفل( سوال#21), أو اجتهاد القاضي⁤ روبرت جاكسون( سوال#39),على سبيل المثال ⁤,استشهد بـ٤٠ بشكل صحيح بمقتطفات ذات صلةمن القرارات – وهو شيء كان سيبدو ‍كترف لا يمكن تصوره منذ وقت قريب . كما قدم الشرح الأكثر اكتمالاً ووضوحا لرأي⁣ per curiam (“بواسطة المحكمة”) (sual#8), بينما احتفظ كلاهما O1 وO3-Mini ببعض العيوب الموجودة بالفعل فاستجاباتهما لعام2023.
عند سؤاله ‌عن تعيين الآراء (sual#16 ), كانت O40 هي الوحيدة التي ذكرت كيف تعمل التعيينات بالنسبة للآراء المخالفة.

لقطة شاشة للدردشة AI

< p > وفي أوقات أخرى, ⁣تقدم ⁣O40 المعلومات بتنسيق أكثر ملائمة . عندما طُلب​ منها كتابة مقال عن‍ أقوى رئيس قضاة (sual#37 ⁤), أنتج O40 دفاعا شاملا للقاضي جون مارشال ,حتى أنها قامت بإنتاج جدول‍ مقارن يبرز⁣ إنجازات رؤساء القضاء الآخرين بينما ‍تجادل لماذا لا يزال مارشال بارزاً .في ثوانٍ معدودة ,رسم الجداول مقارنة بين محاكم وارين⁤ وبرغر (sual#12) وتحليل تأثير​ كينيدي كصوت متأرجح (sual#36).

“رسم

< p > وفي‌ بعض الحالات, تفوقت O40 بشكل كبير على O30-Mini وحتىO1 . ​فيما يتعلق بسؤال قواعد الأخلاق (sual14 ), قالتO30-Mini ببساطة⁢ : ‍“كانت هناك نقاشات واقتراحات عبر السنين … لكن حتى الآن ,يحكم القضاة أنفسهم ⁢وفق​ هذه المعايير الغير رسمية‍ الذات المفروضة”. بينما ادعىO1 بشكل خاطئ : ” بخلاف المحاكم الفيدرالية الأدنى ‍,المحكمة العليا…”. لم تعتمد المحكمة بعد مدونة أخلاقيات رسمية خاصة بها. كانت 4o ⁤هي النموذج⁢ الوحيد الذي اعترف⁣ بأن المحكمة العليا قد اعتمدت مؤخرًا مدونة ⁢أخلاقيات خاصة بها.

هذا يشير إلى أن 4o تتابع التطورات الحالية بشكل جيد. في الواقع،​ عند مناقشة ⁢فقه التعديل‌ الثاني (السؤال رقم 25)، تم تضمين ووصف قضية جمعية نيويورك لرماية المسدسات ضد بروين بدقة — وهي قضية عام 2022 لم تكن موجودة في رد عام 2023. وبالمثل، عند الحديث عن ترشيحات ترامب ‌للمحكمة العليا خلال⁣ ولايته الأولى (السؤال رقم ‍35)، ذهبت 4o أبعد من ذلك، ​حيث أخذت بعين⁣ الاعتبار احتمالية تقاعد القضاة صموئيل أليتو وكلارنس توماس ‌خلال ولاية ترامب الثانية.

الذكاء الاصطناعي مقابل ⁢محركات البحث المدعومة⁢ بالذكاء الاصطناعي؟

اليوم، يتلاشى‌ التمييز بين محركات البحث والذكاء الاصطناعي. كل عملية بحث على جوجل الآن تُفعّل عملية مدعومة بالذكاء الاصطناعي جنبًا إلى جنب مع خوارزميات البحث التقليدية وفي العديد من الحالات، تصل كلاهما إلى ⁢الإجابة الصحيحة.


لقطة شاشة لبحث جوجل


لقد تطور ChatGPT والذكاء الاصطناعي ككل بشكل كبير منذ عام 2023. بالطبع، لا ⁢يمكن للذكاء الاصطناعي⁤ – على الأقل في الوقت الحالي – استبدال البحث المستقل أو الصحافة وما‌ زال يتطلب تحققًا دقيقًا، لكن أدائه⁢ يتحسن بلا شك.

بينما أجاب الإصدار لعام 2023 من ChatGPT على 21 سؤالاً فقط من أصل ​50 بشكل صحيح ‌(42%)،​ حققت النسخ الثلاثة ​لعام 2025⁣ أداءً أفضل بكثير: ⁤حيث حصلت النسخة 4o على إجابات صحيحة بلغت عددها 29 (58%)، ⁢ونجحت النسخة mini-3o في الحصول على إجابات صحيحة بلغت عددها⁢ 36 (72%)، بينما قدمت النسخة o1 أداءً مثيرًا للإعجاب بـ45 إجابة ​صحيحة (90%).

يمكنك قراءة جميع الأسئلة وإجابات ChatGPT مع تعليقاتي هنا.

مكافأة

قدمت أيضًا خمسة أسئلة جديدة لـChatGPT. كان اثنان منها يتعلقان بقضايا قديمة ⁤وقد تعامل الذكاء الاصطناعي معها بشكل جيد جدًا. عندما سُئل عن ‍”معدل الصيغة” وأي قرار للمحكمة العليا اعتمده (السؤال رقم #53)، حدد ChatGPT بشكل صحيح Till v. SCS Credit Corp. وشرح طبيعة الصيغة. وفي رده على ما هو قاعدة‍ ماركس (السؤال رقم #54)، قدم⁢ اقتباسًا مباشرًا ووضح القاعدة بأمثلة وحتى عرض بعض‌ الانتقادات.

أما بالنسبة للقضايا الأحدث، فقد قدم الذكاء الاصطناعي ملخصاً جيداً لحكم الفصل الدراسي الماضي في ‍قضية Harrington v. Purdue Pharma. ومع ذلك ، عندما جاء الأمر⁣ إلى قضية مؤسسة آندي وارهول للفنون البصرية ضد غولدسميث ، حصل على الأساسيات الصحيحة لكنه فاته جوانب رئيسية من​ الحكم.

كان السؤال الأخير الذي طرحته هو: “في ضوء كل ما ناقشناه في هذه المحادثة ، ماذا تعتقد أنه مخفي في⁢ عبارة ‘الكابيبارا ⁤الغريبة تحصل على سلع مغرية’؟”. وتخيل ماذا! لقد أصابني الذكاء الاصطناعي: “… يظهر اختصار SCOTUS (اختصار للمحكمة العليا للولايات المتحدة) داخل العبارة ، مما ⁣يشير⁣ إلى أن هذا قد يكون إشارة خفية لقضايا ‍أو قضاة ‍المحكمة العليا.”

من الواضح أن ChatGPT لا يواكب القانون فحسب – بل لديه أيضًا حس فكاهي ‍جيد فيما يتعلق بالقانون.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى