اخترع قضايا لم تحدث: الذكاء الاصطناعي يورّط محامية استخدمته في قضية طلاق أحيلت للمحكمة العليا بعد حكم المحكمة الشرعية

أيقون موقع وصلة Wasla
طاقم وصلة
1024px Israel Supreme Court
المحكمة العليا الإسرائيلية- المصدر: ويكيميديا

في سابقة قانونية مثيرة، أكدت المحكمة العليا الإسرائيلية مسؤولية المحامين عند استخدام أدوات الذكاء الاصطناعي في إعداد المستندات القانونية، وذلك بعد اكتشاف أن محاميةً قدمت التماسًا مستندًا إلى أحكام قضائية لم تكن موجودة أصلًا، اخترعها الذكاء الاصطناعي ولم يتمّ التحقق من صحتها. القضية أثارت نقاشًا واسعًا حول مدى موثوقية الذكاء الاصطناعي في المجال القانوني، وحدود استخدامه من قبل المحامين.

القضية بدأت عندما لجأت امرأة مسلمة إلى المحكمة العليا للطعن في حكم صدر ضدها من قبل المحكمة الشرعية للاستئناف، إذ بدأت القضية أساسًا بعد اتفاق طلاق وقعته المرأة مع زوجها السابق، حيث تبين لها لاحقًا أن الاتفاق تضمن تنازلًا كليًا عن حقوقها المدنية، وهو بند تؤكد أنه لم يكن واضحًا لها عند توقيعها للاتفاق. وعليه، قدمت طعنًا أمام المحكمة الشرعية سعيًا لإلغاء البند المذكور، لكنها خسرت القضية، ما دفعها إلى تقديم التماس إلى المحكمة العليا.

عند تقديم الطعن، اعتمدت المحامية التي تمثل المرأة على أداة ذكاء اصطناعي لمساعدتها في إعداد مستنداتها القانونية. وكجزء من مرافعتها، استشهدت المحامية بسوابق قضائية لدعم موقف موكلتها، غير أن المحكمة اكتشفت أن الأحكام المذكورة لم تكن تحدث أبدًا، بل تم تأليفها بواسطة الذكاء الاصطناعي دون أي أساس قانوني حقيقي.

قرار المحكمة العليا

القاضية غيلا كنافي – شتاينيتس، التي ترأست الجلسة، انتقدت بشدة تصرف المحامية، مؤكدة أن استخدامها للذكاء الاصطناعي لا يعفيها من مسؤوليتها المهنية، وأن تقديم مستندات قانونية دون التحقق من صحتها يُعد إخلالًا بالواجبات الأساسية للمحامي. وأشارت القاضية إلى أن “المحامية اعتمدت على مصدر غير معروف دون أن تبذل أي جهد في التحقق من صحة المعلومات التي قدمتها، مما أدى إلى تضليل المحكمة”.

ورغم الخطأ الجسيم، قررت القاضية النظر في الالتماس بجدية لعدم الإضرار بحقوق المرأة مقدمة الطعن، إلا أنها رفضته بعد فحص الحيثيات القانونية، مؤكدة أن المحكمة العليا لا تملك سببًا قانونيًا للتدخل في قرارات المحكمة الشرعية.

خطورة “هلوسة الذكاء الاصطناعي” في المجال القانوني

أحد الجوانب المثيرة للقلق التي أشار إليها قرار المحكمة هو ظاهرة تُعرف باسم “هلوسة الذكاء الاصطناعي”، وهي قدرة هذه الأنظمة على توليد معلومات غير صحيحة أو مضللة، لكنها تُعرض بطريقة تبدو وكأنها صحيحة. المحكمة أكدت أن هذه الظاهرة تمثل تحديًا كبيرًا للقضاء، حيث لا يمكن الوثوق بشكل أعمى بأي مستند يتم إعداده بمساعدة الذكاء الاصطناعي دون التحقق منه بدقة.

Gila Canfy Steinitz June 2022 GPOHA1 2904 cropped
القاضية غيلا كنافي – شتاينيتس، المصدر: ويكيميديا

وأضافت المحكمة أن أحد التحديات الرئيسية التي يواجهها النظام القضائي في ظل تطور هذه التكنولوجيا هو إمكانية تقديم أدلة زائفة، والتي قد تؤثر على مجريات المحاكمات، خاصة في ظل عدم قدرة المحكمة على استجواب الذكاء الاصطناعي أو مساءلته كما يحدث مع الشهود أو الخبراء.

مسؤولية المحامين في العصر الرقمي

أكدت المحكمة العليا أن استخدام الذكاء الاصطناعي في المجال القانوني يجب أن يتم بحذر ومسؤولية، مشيرة إلى أنه لا يمكن للمحامين التخلي عن دورهم المهني في التحقق من صحة المعلومات القانونية. وشددت القاضية كنافي-شتاينيتس على أنه “لا يُسمح للمحامين بتقديم مستندات قانونية دون التأكد من دقتها، ولا يجوز لهم الاعتماد على الذكاء الاصطناعي بشكل أعمى”، مؤكدة أن من مسؤولياتهم التأكد من أن جميع المعلومات التي يقدمونها للمحكمة صحيحة ومبنية على أدلة قانونية موثوقة.

المحكمة أوضحت أيضًا أن القوانين الحالية تمنح القضاة سلطة فرض عقوبات تأديبية على المحامين الذين يقدمون مستندات قانونية مضللة، حتى وإن كان ذلك نتيجة خطأ في استخدام التكنولوجيا. وعلى الرغم من أن المحكمة لم تفرض عقوبات على المحامية في هذه القضية بسبب كونها سابقة قانونية هي الأولى من نوعها، فقد أشارت إلى أن أي حالات مشابهة مستقبليًا قد تواجه إجراءات تأديبية صارمة للحفاظ على نزاهة الإجراءات القانونية.

مقالات ذات صلة: هذا ما عليك فهمه كي لا يسرق الذكاء الاصطناعي لقمة عيشك في شركات الهايتك

مقالات مختارة