أخبارالأرشيفمقالات

“حسام خطاب” يكتب: المحامي الذي خدعه ChatGPT

لجأ محام أمريكي إلى نظام ChatGPT في صياغة مرافعته إلى المحكمة، المحامي اليوم في مأزق بعدما تبين حجم المعلومات الخاطئة المقدمة إلى المحكمة، وكيف خدعه نظام ChatGPT.. واليكم التفاصيل:

القضية بدأت كغيرها من القضايا، رجل اسمه Roberto Meta قاضى خطوط الطيران Avianca؛ مدعياً أن عربة خدمة اصطدمت في ساقه وسببت الإصابة لركبته، ومطالباً إياها بالتعويض.

طلبت شركة الطيران من القاضي الفيدرالي في مانهاتن رفض القضية، قوبل طلبهم باعتراض المحامين، وقدموا خطاباً موجزاً للمحكمة مستشهدين بعشرة قضايا مشابهة أخرى تثبت وجهة نظرهم.

كان هناك خلل واحد في الخطاب ومن الصعب تجاوزه؛ القضايا المشار إليها غير حقيقية، محامو شركة الطيران والقاضي لم يستطيعوا الوصول إلى تلك القضايا المذكورة.. السبب أن نظام ChatGPT كان قد اخترعها جميعها.

عندما واجه القاضي محامي الرجل، اعترف أنه اعتمد على نظام المحادثة ChatGPT في بحثه، المحامي خبرته تقارب الثلاثين عاما، ومع ذلك استطاع النظام خداعه.

كانت تجربته الأولى مع النظام، وانساق مع الضجة الإعلامية المرافقة له، وما كان منه إلا أن صدقه وملأ إجاباته المزيفة في الخطاب المقدم إلى المحكمة.

الطريف أن القاضي سأل المحامي إن كان تحقق من محتويات الخطاب قبل تقديمه..أجاب المحامي بالإيجاب، كيف؟ ببساطة سأل نظام ChatGPT ذاته عن مدى صحة إجابته؛ النظام استمر بكذبه، وأجابه بنعم.

سأله عن مصادره، شدد ChatGPT على أنها موجودة في قواعد البيانات الرسمية، ومن فرط ثقة ChatGPT بنفسه، المحامي اطمأن واكتفى بهذا القدر من التحقق وافترض أن جميعها قضايا حقيقية.

المحامي عبر عن أسفه، ولام قلة وعيه تجاه احتمالية تزويد النظام بالمعلومات المضللة والخاطئة، واعتبر أنها المرة الأولى والأخيرة التي سيعتمد فيها على الذكاء الصناعي من دون تحقق.

القاضي رأى القضية غير مسبوقة، وأجل النظر فيها إلى يوم 8 يونيو لنقاش العقوبات المحتملة على المحامي.

الحادثة تؤكد على مخاطر الاعتماد المنفرد في الوقت الحالي على أنظمة المحادثة المبنية على الذكاء الصناعي في غايات البحث، لعلها ليست المرة الأولى، والقصة تكررت مع منتجات وشركات أخرى مثلما حدث عندما أعلنت جوجل عن نظامها Bard.

في اللحظات الأولى، اندفع المتحمسون نحو فرضية إحلال الآلة مكان البشر، وما تخبره القصة أن أمامنا وقت قبل أن تتحق نبوءتهم، وفي هذه الأيام، من الخطر الاعتماد مباشرة على نتائج البحث المزودة من أنظمة المحادثة، والتحقق الإضافي مطلوب.

أنظمة المحادثة تعتمد إلى حد كبير على مدى دقة وشمولية الأوامر المكتوبة، وفي أحيان كثيرة يستجيب من خلال إجراء تخمينات حول أجزاء النص المفقود بناء على نموذج إحصائي لتحليل البيانات.

في حالة رجل الطائرة، يبدو أن النظام أدرك المتاهة القانونية الحاصلة، وانطلق في خيالاته، واختلق القضايا، نتيجتها كان محامياً متمرساً وقع فريسة نظام ChatGPT.

 

المهندس رامى إسحق

error: Alert: Content is protected !!