مقالات عامة

لماذا يعتبر تنصيب “قضاة آليين” في قاعات المحاكم فكرة سيئة حقًا

مجلة المذنب نت متابعات عالمية:

تتضمن رؤى الخيال العلمي للمستقبل العديد من إصدارات الذكاء الاصطناعي (AI) ، ولكن هناك أمثلة قليلة نسبيًا حيث يحل البرنامج محل القضاة البشريين. لمرة واحدة ، يبدو أن العالم الحقيقي يتغير بطرق لم يتم توقعها في القصص.

في فبراير ، طلب قاض كولومبي من ChatGPT إرشادات حول كيفية البت في قضية التأمين. في نفس الوقت تقريبًا ، استخدم قاض باكستاني ChatGPT لتأكيد قراراته في قضيتين منفصلتين. هناك أيضًا تقارير عن قضاة في الهند وبوليفيا يطلبون المشورة من ChatGPT.

هذه تجارب غير رسمية ، لكن بعض الجهود المنهجية للإصلاح تشمل الذكاء الاصطناعي. في الصين ، يُنصح القضاة ويساعدهم الذكاء الاصطناعي ، ومن المرجح أن يستمر هذا التطور. في خطاب ألقاه مؤخرًا ، اقترح رئيس القوائم ، السير جيفري فوس – ثاني أكبر قاضٍ في إنجلترا وويلز – أنه نظرًا لرقمنة النظام القانوني في هذا الاختصاص القضائي ، فقد يتم استخدام الذكاء الاصطناعي للبت في بعض “النزاعات الشخصية الأقل حدة “، مثل القضايا التجارية.

الذكاء الاصطناعي ليس ذكيًا حقًا

قد تبدو هذه فكرة جيدة في البداية. من المفترض أن يتم تطبيق القانون بشكل حيادي وموضوعي ، “دون خوف أو محاباة”. يقول البعض ، ما هي أفضل طريقة لتحقيق ذلك من استخدام برنامج كمبيوتر؟ لا يحتاج الذكاء الاصطناعي إلى استراحة غداء ، ولا يمكن رشوته ، ولا يريد زيادة في الراتب. يمكن تطبيق عدالة الذكاء الاصطناعي بسرعة وكفاءة أكبر. هل سنرى إذن “قضاة آليين” في قاعات المحاكم في المستقبل؟

هناك أربعة أسباب رئيسية وراء عدم اعتبار هذه الفكرة جيدة. الأول هو أنه من الناحية العملية ، يعمل الذكاء الاصطناعي عمومًا كنظام خبير أو كنظام تعلم آلي. تتضمن الأنظمة الخبيرة ترميز القواعد في نموذج للقرارات ونتائجها – تسمى شجرة القرار – في البرنامج. كانت هذه أوجها في القانون في الثمانينيات. ومع ذلك ، فقد أثبتوا في النهاية أنهم غير قادرين على تحقيق نتائج جيدة على نطاق واسع.

التعلم الآلي هو شكل من أشكال الذكاء الاصطناعي يتحسن فيما يقوم به بمرور الوقت. غالبًا ما يكون قويًا جدًا ، لكن ليس أكثر من تخمين متعلم جدًا. تتمثل إحدى نقاط القوة في أنه يمكن العثور على الارتباطات والأنماط في البيانات التي ليس لدينا القدرة على حسابها. ومع ذلك ، فإن إحدى نقاط ضعفها هي أنها تفشل بطرق مختلفة عن الطريقة التي يعمل بها الناس ، وتوصل إلى استنتاجات غير صحيحة بشكل واضح.

لا يزال التعرف على الوجه يكافح في بعض المهام.
أندري بوبوف / شاترستوك

في أحد الأمثلة البارزة ، تم خداع الذكاء الاصطناعي للتعرف على سلحفاة على أنها سلاح. غالبًا ما يواجه التعرف على الوجه مشكلات في تحديد النساء والأطفال وذوي البشرة الداكنة بشكل صحيح. لذلك من المحتمل أن يقوم الذكاء الاصطناعي أيضًا بوضع شخص ما بشكل خاطئ في مسرح جريمة لم يكن موجودًا. سيكون من الصعب أن تكون واثقًا من نظام قانوني أدى إلى نتائج كانت غير صحيحة بشكل واضح ولكن أيضًا من الصعب جدًا مراجعتها ، لأن المنطق الكامن وراء التعلم الآلي ليس شفافًا. لقد فاق قدرتنا على فهم أعماله الداخلية – وهي ظاهرة تُعرف باسم “مشكلة الصندوق الأسود”.

عندما يتم استخدام الذكاء الاصطناعي في العمليات القانونية ، ويفشل ، يمكن أن تكون العواقب وخيمة. من المعروف أن نماذج اللغات الكبيرة ، وهي التكنولوجيا الكامنة وراء روبوتات الدردشة المدعومة بالذكاء الاصطناعي مثل ChatGPT ، تكتب نصًا غير صحيح تمامًا. يُعرف هذا باسم هلوسة الذكاء الاصطناعي ، على الرغم من أنه يشير إلى أن البرنامج يفكر بدلاً من تحديد ما يجب أن تكون عليه الكلمة التالية في مخرجاته إحصائيًا.

في هذا العام ، ظهر أن محاميًا من نيويورك استخدم ChatGPT لكتابة مذكرات إلى المحكمة ، فقط ليكتشف أنها استشهدت بقضايا غير موجودة. يشير هذا إلى أن هذه الأنواع من الأدوات ليست قادرة على استبدال المحامين بعد ، وفي الواقع ، قد لا تكون كذلك أبدًا.

التحيزات التاريخية

ثانيًا ، تعتمد أنظمة التعلم الآلي على البيانات التاريخية. في الجريمة والقانون ، غالبًا ما تحتوي هذه على تحيز وتحامل. غالبًا ما تظهر المجتمعات المهمشة بشكل أكبر في سجلات الاعتقالات والإدانات ، لذلك قد يتوصل نظام الذكاء الاصطناعي إلى نتيجة غير مبررة مفادها أن الأشخاص من خلفيات معينة هم أكثر عرضة للإدانة.

ومن الأمثلة البارزة على ذلك نظام Compas ، وهو خوارزمية ذكاء اصطناعي يستخدمها قضاة الولايات المتحدة لاتخاذ قرارات بشأن منح الكفالة وإصدار الأحكام. وزعم تحقيق أنه أدى إلى ظهور “إيجابيات كاذبة” للأشخاص الملونين و “سلبيات كاذبة” للأشخاص البيض. بعبارة أخرى ، اقترح أن الأشخاص الملونين سوف يعاودون الإساءة عندما لا يفعلون ذلك في الواقع ، واقترح أن الأشخاص البيض لن يعاودوا الإساءة عندما يفعلون ذلك. ومع ذلك ، فإن مطور النظام يتحدى هذه الادعاءات.

ثالثًا ، ليس من الواضح ما إذا كان يمكن تحويل القواعد القانونية بشكل موثوق إلى قواعد برمجية. سوف يفسر الأفراد نفس القاعدة بطرق مختلفة. عندما تم تكليف 52 مبرمجًا بمهمة أتمتة إنفاذ حدود السرعة ، أصدرت البرامج التي قاموا بكتابتها أعدادًا مختلفة جدًا من التذاكر لنفس عينة البيانات.

قد يكون للقضاة تفسيرات مختلفة للقانون ، لكنهم يفعلون ذلك علنًا ويخضعون للنقض في الاستئناف. يجب أن يقلل هذا من مقدار التباين في الأحكام بمرور الوقت – على الأقل من الناحية النظرية. ولكن إذا كان المبرمج صارمًا جدًا أو متساهلًا جدًا في تنفيذه لقاعدة ما ، فقد يكون من الصعب جدًا اكتشافه وتصحيحه.

تفشل الأنظمة الحكومية الآلية على نطاق وسرعة يصعب التعافي منها. استخدمت الحكومة الهولندية نظامًا آليًا (SyRI) للكشف عن الاحتيال في المزايا ، والذي اتهم خطأ العديد من العائلات ، مما أدى إلى تدمير الأرواح في هذه العملية.

يُستخدم مخطط “تدخل الامتثال عبر الإنترنت” الأسترالي لتقييم الديون تلقائيًا من متلقي مدفوعات الرعاية الاجتماعية. يُعرف باسم “Robodebt”. تجاوز المخطط حدوده ، مما أثر سلبًا على مئات الآلاف من الأشخاص وكان موضوعًا للجنة الملكية في أستراليا. (اللجان الملكية هي تحقيقات في الأمور ذات الأهمية العامة في أستراليا.)

أخيرًا ، الحكم ليس كل ما يفعله القضاة. لديهم العديد من الأدوار الأخرى في النظام القانوني ، مثل إدارة قاعة المحكمة ، وعدد القضايا ، وفريق من الموظفين ، وسيكون من الصعب استبدال هذه البرامج بالبرامج.


نشكركم على قراءة المنشور عبر مجلة المذنب نت, المتخصصة في التداول والعملات الرقمية والمشفرة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى