"القاضي الروبوت".. هل سيؤثر الذكاء الاصطناعي في قرارات المحاكم؟

قيم هذا المقال
(0 صوت)
"القاضي الروبوت".. هل سيؤثر الذكاء الاصطناعي في قرارات المحاكم؟

(شترستوك)

مع انتشار استخدام الذكاء الاصطناعي في كثير من مجالات الحياة، تدور حاليا نقاشات جادة في الأوساط العلمية بشأن البعد الأخلاقي لمنح الخوارزميات التي تحاكي السلوك البشري صلاحيات التأثير في قرارات المحاكم.

ويأتي الذكاء الاصطناعي الذي يُعتقد أنه يوفر مزايا كثيرة مثل تسريع الإجراءات القضائية وأتمتة الروتين، في مقدمة التطبيقات التجريبية بمجال القانون التي بدأ اختبارها في أجزاء مختلفة من العالم، وخصوصا في الصين وكندا وإستونيا وماليزيا.

وحسب وكالة الأناضول، فمن خلال تطبيق القاضي الروبوت الذين يقوم بتقييم القضايا الصغيرة في إستونيا، والروبوت الوسيط في كندا، وقضاة الذكاء الاصطناعي في الصين، ونظام التحكيم بالذكاء الاصطناعي في ماليزيا، أصبحت هيمنة الخوارزميات على النظام القضائي أمرا واقعا.

وفي عام 2019 بدأ مركز خدمة التقاضي عبر الإنترنت التابع لمحكمة الإنترنت الصينية في استخدام برمجيات الذكاء الاصطناعي للمساعدة في اتخاذ القرارات في الإجراءات القانونية الروتينية، بما في ذلك رفع القضايا ومعالجتها.

وفي العام نفسه، بدأت إستونيا باستخدام تطبيقات الروبوتات المعززة بالذكاء الاصطناعي في المحاكم، وخاصة في مجال فحص وتحليل الوثائق القانونية ومعالجة القضايا التي تقل قيمتها المادية عن 7 آلاف يورو.

بدورها، بدأت ماليزيا عام 2022 استخدام التطبيقات التجريبية لنظام التقاضي باستخدام الذكاء الاصطناعي في محاكم بعض الولايات.

ورغم أن إدراج الذكاء الاصطناعي في النظام القضائي يساعد في جعل العقوبات أكثر اتساقا وفاعلية من حيث الكلفة المالية للقضايا المتراكمة، إلا أن النقاش حاليا يدور حول ما إذا كانت تلك الأحكام والتطبيقات سليمة من ناحية الأخلاقيات القانونية.

الرقابة الأخلاقية هي الأهم

وتحدثت الأناضول إلى الدكتور أحمد علوي توركباغ، المحاضر بكلية الحقوق في جامعة إسطنبول ميديبول، الذي يرى أن هناك مبادئ معينة تحكم الرقابة الأخلاقية للذكاء الاصطناعي، أهمها أن يتسم الذكاء الاصطناعي بالشفافية، مضيفا أن ذلك شرط يجب أن يكون خاضعا للتحكم المطلق.

وأوضح توركباغ أن الذكاء الاصطناعي لديه القدرة على اتخاذ قرارات مفاجئة، مؤكدا أن القرارات التي تتخذها الخوارزميات يجب أن تكون في متناول البشر.

لكنه شدد على أن قرارات المحكمة التي تتخذها الخوارزميات يجب أن تكون قابلة للتدقيق بواسطة الذكاء البشري، مع إمكانية التحكم بالخوارزميات بشكل جيد من خلال برامج مماثلة لتطبيقات مكافحة الفيروسات تقوم بتدقيق عمل برامج الذكاء الاصطناعي ذات الأغراض العامة أو الخاصة وزيادة موثوقيتها الأخلاقية.

وفي شكوى إلى لجنة التجارة الفدرالية بالولايات المتحدة، طالب المركز الأميركي للذكاء الاصطناعي والسياسة الرقمية (غير ربحي) وقف استخدام تطبيق جي بي تي-4 (GPT-4)، الإصدار الجديد لشركة تطوير الذكاء الاصطناعي أوبن إيه آي (OpenAI).

واتهم المركز شركة أوبن إيه آي بالخداع وانتهاك قانون الممارسات التجارية غير العادلة واللوائح التنظيمية المتعلقة بإرشادات منتجات الذكاء الاصطناعي. وشدد على أن تطبيق جي بي تي-4 يقوم بخداع المستخدمين ويشكل خطرا على الخصوصية والسلامة العامة.

وزعم المركز أن منتجات الذكاء الاصطناعي للشركة لا تفي بمعايير الشفافية والمساءلة الواردة في توجيهات ولوائح لجنة التجارة الفدرالية.

الذكاء البشري

من جهته، قال توركباغ إنه من المفترض أنه إذا تم استئناف قرار اتخذه الذكاء الاصطناعي، فيجب نقل ملف القضية إلى محكمة أعلى، ومعالجة هذه القضية من قبل الذكاء البشري.

وأضاف "حتى لو قبلنا بموثوقية الذكاء الاصطناعي، فيجب عدم إهمال العنصر البشري من منطلق قانوني وأخلاقي. وعليه يجب على الذكاء الاصطناعي إجراء مسح لقاعدة البيانات على نطاق واسع وفقا لأهمية القضايا التي يتم معالجتها".

وأفاد توركباغ بأن هناك نقطة إيجابية في عمل الخوارزميات، حيث يمكن للذكاء الاصطناعي تطوير تسلسل هرمي يمكن تطبيقاته من إجراء مقارنات سريعة بين القضايا التي تتم معالجتها حاليا، قبل النظر في الاجتهادات القانونية التي جرى تطويرها سابقا من قبل الذكاء الاصطناعي أيضا.

وأوضح أن الذكاء الاصطناعي سيكرر (القرارات) التي اتخذها سابقا في المواقف المتشابهة، إلا أن قضايا هامة مثل تصرف ودور الذكاء الاصطناعي عند وقوع حوادث مرورية خطيرة في السيارات ذاتية القيادة، تبقى من أبرز المشاكل الأخلاقية البحتة التي يجري نقاشها في الأوساط العلمية والهندسية.

المصدر : وكالة الأناضول

 

قراءة 200 مرة