التكنولوجيا اليومية
·28/05/2025
شهدت الساحة القانونية في الولايات المتحدة فضيحة جديدة تتعلق باستخدام الذكاء الاصطناعي، حيث اعتذر مكتب محاماة بارز في المحكمة الفيدرالية عن اعتماده على استشهادات قانونية مولدة بواسطة ChatGPT، والتي تبين أنها غير صحيحة.
في جلسة استماع أمام القاضي الفيدرالي آنا ماناسكو في ألاباما، اعترف المحامون من مكتب Butler Snow، الذي يضم أكثر من 400 محامٍ، بأنهم قدموا مستندات قانونية تحتوي على استشهادات خاطئة تم إنتاجها بواسطة ChatGPT. المكتب يمثل المدير السابق لإدارة الإصلاحيات في ألاباما، جيف دان، الذي يواجه دعوى قضائية من سجين يدعي تعرضه للاعتداء أثناء احتجازه.
أقر الشريك في المكتب، ماثيو ريفز، في وثيقة مقدمة يوم الاثنين بأنه فشل في واجبه المهني بعدم التحقق من صحة الاستشهادات. وأعرب عن أسفه لما وصفه بـ "تقصير في العناية والحكم". بينما لم يتخذ القاضي ماناسكو قرارًا بعد بشأن فرض عقوبات، فإن هذه الحادثة قد زادت من المخاوف المتزايدة بشأن الاستخدام غير المنضبط لأدوات الذكاء الاصطناعي في الممارسات القانونية.
تعتبر هذه الحادثة الأحدث في سلسلة من الأخطاء القانونية البارزة المرتبطة باستخدام الذكاء الاصطناعي. تُعرف هذه الأخطاء باسم "الهلاوس"، حيث تنتج الذكاء الاصطناعي معلومات غير دقيقة. على الرغم من وجود إرشادات مهنية واضحة تتطلب من المحامين التحقق من دقة مستنداتهم، إلا أن الذكاء الاصطناعي لا يزال يعقد الامتثال.
في الأسبوع الماضي، كان على محامٍ من مكتب Latham & Watkins العالمي أن يشرح لقاضٍ في كاليفورنيا سبب استشهاد تقرير خبير في قضية حقوق الطبع والنشر المتعلقة بشركة AI Anthropic بمقال غير موجود، وهو أيضًا نتيجة لهلاوس الذكاء الاصطناعي.
تأثرت مكاتب محاماة أخرى أيضًا. في قضية منفصلة هذا الشهر، واجهت مكاتب K&L Gates وEllis George عقوبات إجمالية تزيد عن 31,000 دولار بعد أن وجدت محكمة خاصة أن كلا المكتبين قدما استشهادات قانونية غير دقيقة ناتجة عن استخدام الذكاء الاصطناعي. تم توبيخ المكاتب بسبب ما وصفه القاضي المتقاعد مايكل ويلنر بأنه "فشل جماعي".
كتب ويلنر أنه تم "تضليله بشكل إيجابي" من قبل الوثيقة المقدمة، حيث قرأ المذكرة واعتقد أن الحجج والاستشهادات صحيحة، ليكتشف لاحقًا أن القرارات المشار إليها لم تكن موجودة، وهو لحظة وصفها بأنها "مرعبة".
تسلط هذه الحوادث الأخيرة الضوء على الحاجة الملحة لوضع معايير واضحة وإشراف بشأن استخدام الذكاء الاصطناعي في العمل القانوني. بينما تكافح المهنة القانونية لتبني الذكاء الاصطناعي بشكل مسؤول، فإن هذه الحوادث تعزز الدعوات لتنظيم أكثر صرامة ومساءلة مهنية لضمان عدم تقويض الابتكار التكنولوجي لنظام العدالة.









