دیوانعالی انگلستان و ولز تأکید کرد که وکلا باید اقدامات قویتری را برای جلوگیری از سوءاستفاده از هوش مصنوعی در فعالیتهای خود اتخاذ کنند. در حکمی که به بررسی دو پرونده اخیر مرتبط است، قاضی ویکتوریا شارپ اظهار داشت که ابزارهای هوش مصنوعی مولد مانند ChatGPT «قادر به انجام تحقیقات قانونی معتبر نیستند.»
قاضی شارپ توضیح داد: «این ابزارها میتوانند پاسخهای ظاهراً منسجم و معقولی به درخواستها تولید کنند، اما این پاسخها ممکن است کاملاً نادرست باشند. آنها میتوانند ادعاهای قاطعانهای را مطرح کنند که به سادگی نادرست هستند.»
این بدان معنا نیست که وکلا نمیتوانند از هوش مصنوعی در تحقیقات خود استفاده کنند، اما وی تاکید کرد که آنها وظیفه حرفهای دارند «دقت این تحقیقات را با مراجعه به منابع معتبر پیش از استفاده در روند کاری خود، بررسی کنند.»
قاضی شارپ اشاره کرد که با توجه به افزایش پروندههایی که وکلا (از جمله وکلای نمایندگی پلتفرمهای بزرگ هوش مصنوعی در ایالات متحده) به مواردی از دروغهای تولید شده توسط هوش مصنوعی استناد کردهاند، نیاز به اقداماتی بیشتر به منظور اطمینان از پیروی از راهنماییها و وظایف وکلا به دادگاه احساس میشود. همچنین، وی اعلام کرد که این حکم به نهادهای حرفهای شامل شورای وکلا و جامعه حقوقی ارسال خواهد شد.
در یکی از پروندههای مورد بحث، وکیلی که نماینده شخصی است که از دو بانک خواهان غرامت بود، پروندهای با ۴۵ ارجاع ارائه داد که ۱۸ مورد آنها وجود نداشت و بسیاری دیگر «نقلقولهایی که به آنها نسبت داده شده بود را در بر نداشتند و از propositions حمایت نمیکردند» و ارتباطی با موضوع پرونده نداشتند. در پرونده دیگر، وکیلی که نماینده شخصی بود که از خانهاش در لندن اخراج شده بود، در پروندهاش به پنج مورد استناد کرد که به نظر نمیرسید وجود داشته باشند.
قاضی شارپ گفت که با وجود عدم تصمیم دادگاه برای شروع روند توهین، این «قبلاً یک روند شناختهشده» نیست و افزود: «وکلایی که به این وظایف حرفهای خود پایبند نباشند، با تحریمهای جدی مواجه خواهند شد.» هر دو وکیل یا به نهادهای نظارتی حرفهای ارجاع داده شدند یا خودشان اقدام به این کار کردند. قاضی شارپ تصریح کرد که وقتی وکلا به وظایف خود در برابر دادگاه عمل نمیکنند، دادگاه میتواند از «تذکر عمومی» تا اعمال هزینهها، اقدامات توهینآمیز یا حتی «ارجاع به پلیس» اقدام کند.