وکیل متاسفم برای استنادات جعلی دادگاه ایجاد شده توسط ChatGPT

شهردار، برایان هود، در واقع یک افشاگر در این پرونده بود و هرگز متهم به جرم نشد، بنابراین زم، که مردم شروع به اطلاع رس، به او در مورد بازنویسی تاریخ توسط چت بات ،د، بسیار ناراحت شد.

توصیه های سردبیران







منبع: https://www.di،altrends.com/computing/lawyer-says-sorry-for-fake-court-citations-created-by-chatgpt/

ماجرای عجیب زم، آغاز شد که روبرتو ماتا از یک شرکت هواپیمایی کلمبیایی پس از ادعای جراحتش در پروازی به نیویورک سیتی شکایت کرد.

وکیلی در مرکز طوفان گفت که از استفاده از ChatGPT برای ایجاد خلاصه “بسیار پشیمان است” و تاکید کرد که “در آینده هرگز این کار را بدون تأیید صحت کامل انجام نخواهد داد.”

شوارتز به قاضی گفت که قبلاً از ChatGPT استفاده نکرده بود و “بنابراین از احتمال نادرست بودن محتوای آن بی اطلاع بود.”

در ماه‌های اخیر صحبت‌های زیادی در مورد اینکه موج جدید چت‌بات‌های مبتنی بر هوش مصنوعی، از جمله ChatGPT، می‌تواند بسیاری از صنایع، از جمله حرفه حقوقی را متز،ل کند، مطرح شده است.

با این حال، با قضاوت بر اساس آنچه اخیراً در یک پرونده در شهر نیویورک رخ داده است، به نظر می رسد مدتی طول بکشد تا وکلای بسیار آموزش دیده توسط این فناوری کنار گذاشته شوند.

خالق این خلاصه، استیون آ. شوارتز – یک وکیل بسیار با تجربه در شرکت Levidow, Levidow & Oberman – در قولنامه ای اعتراف کرد که از چت ربات بسیار مشهور OpenAI ChatGPT برای جستجوی موارد مشابه استفاده کرده است، اما گفت که “نشان داده است. خود غیرقابل اعتماد است.»

ChatGPT و سایر ربات‌های چت مانند آن، در حالی که در نحوه تولید متن روان با کیفیت بسیار چشمگیر هستند، همچنین به ،وان چیزهایی ساخته می‌شوند و آن‌ها را به‌گونه‌ای ارائه می‌کنند که گویی واقعی هستند – چیزی که شوارتز به هزینه خود آموخته است. این پدیده به ،وان “توهم” شناخته می شود و یکی از بزرگترین چالش هایی است که توسعه دهندگان انس، در پشت ربات های چت با آن مواجه هستند زیرا آنها به دنبال رفع این چین بسیار مشکل ساز هستند.

در نمونه اخیر دیگری از ابزار مولد هوش مصنوعی توهم‌آور، یک شهردار استرالیا ChatGPT را متهم کرد دروغ پردازی درباره او، از جمله اینکه بیش از یک دهه پیش در حالی که برای یک بانک کار می کرد به دلیل رشوه به زندان افتاد.

هنگام ایجاد خلاصه، شوارتز حتی از ChatGPT خواست تا تأیید کند که این موارد واقعاً اتفاق افتاده است. چت بات همیشه مفید پاسخ مثبت داد و گفت که اطلاعات مربوط به آنها را می توان در “پایگاه های اطلاعاتی حقوقی معتبر” یافت.

شرکت هواپیمایی Avianca از قاضی درخواست کرد که پرونده را رد کند، بنابراین تیم حقوقی ماتا با استناد به 12 مورد مشابه که در تلاش بودند قاضی را متقاعد کنند تا پرونده موکل خود را ادامه دهد، خلاصه ای را جمع آوری کرد. مجله نیویورک تایمز گزارش شده است.

قاضی کاستل با نگاهی به آنچه که او به ،وان یک ارسال قانونی مملو از «تصمیمات قضایی جعلی، با نقل قول‌های جعلی و نقل‌قول‌های جعلی داخلی» توصیف کرد و وضعیت را بی‌سابقه توصیف کرد، دستور دادرسی اوایل ماه آینده را برای بررسی مجازات‌های احتمالی صادر کرد.

مشکل این بود که وکلای شرکت هواپیمایی و قاضی نتوانستند مدرکی در مورد موارد ذکر شده در خلاصه پیدا کنند. چرا؟ زیرا ChatGPT همه آنها را ساخته بود.