شهردار، برایان هود، در واقع یک افشاگر در این پرونده بود و هرگز متهم به جرم نشد، بنابراین زم، که مردم شروع به اطلاع رس، به او در مورد بازنویسی تاریخ توسط چت بات ،د، بسیار ناراحت شد.
توصیه های سردبیران
شهردار، برایان هود، در واقع یک افشاگر در این پرونده بود و هرگز متهم به جرم نشد، بنابراین زم، که مردم شروع به اطلاع رس، به او در مورد بازنویسی تاریخ توسط چت بات ،د، بسیار ناراحت شد.
توصیه های سردبیران
منبع: https://www.di،altrends.com/computing/lawyer-says-sorry-for-fake-court-citations-created-by-chatgpt/
ماجرای عجیب زم، آغاز شد که روبرتو ماتا از یک شرکت هواپیمایی کلمبیایی پس از ادعای جراحتش در پروازی به نیویورک سیتی شکایت کرد.
وکیلی در مرکز طوفان گفت که از استفاده از ChatGPT برای ایجاد خلاصه “بسیار پشیمان است” و تاکید کرد که “در آینده هرگز این کار را بدون تأیید صحت کامل انجام نخواهد داد.”
شوارتز به قاضی گفت که قبلاً از ChatGPT استفاده نکرده بود و “بنابراین از احتمال نادرست بودن محتوای آن بی اطلاع بود.”
در ماههای اخیر صحبتهای زیادی در مورد اینکه موج جدید چتباتهای مبتنی بر هوش مصنوعی، از جمله ChatGPT، میتواند بسیاری از صنایع، از جمله حرفه حقوقی را متز،ل کند، مطرح شده است.
با این حال، با قضاوت بر اساس آنچه اخیراً در یک پرونده در شهر نیویورک رخ داده است، به نظر می رسد مدتی طول بکشد تا وکلای بسیار آموزش دیده توسط این فناوری کنار گذاشته شوند.
خالق این خلاصه، استیون آ. شوارتز – یک وکیل بسیار با تجربه در شرکت Levidow, Levidow & Oberman – در قولنامه ای اعتراف کرد که از چت ربات بسیار مشهور OpenAI ChatGPT برای جستجوی موارد مشابه استفاده کرده است، اما گفت که “نشان داده است. خود غیرقابل اعتماد است.»
ChatGPT و سایر رباتهای چت مانند آن، در حالی که در نحوه تولید متن روان با کیفیت بسیار چشمگیر هستند، همچنین به ،وان چیزهایی ساخته میشوند و آنها را بهگونهای ارائه میکنند که گویی واقعی هستند – چیزی که شوارتز به هزینه خود آموخته است. این پدیده به ،وان “توهم” شناخته می شود و یکی از بزرگترین چالش هایی است که توسعه دهندگان انس، در پشت ربات های چت با آن مواجه هستند زیرا آنها به دنبال رفع این چین بسیار مشکل ساز هستند.
در نمونه اخیر دیگری از ابزار مولد هوش مصنوعی توهمآور، یک شهردار استرالیا ChatGPT را متهم کرد دروغ پردازی درباره او، از جمله اینکه بیش از یک دهه پیش در حالی که برای یک بانک کار می کرد به دلیل رشوه به زندان افتاد.
هنگام ایجاد خلاصه، شوارتز حتی از ChatGPT خواست تا تأیید کند که این موارد واقعاً اتفاق افتاده است. چت بات همیشه مفید پاسخ مثبت داد و گفت که اطلاعات مربوط به آنها را می توان در “پایگاه های اطلاعاتی حقوقی معتبر” یافت.
شرکت هواپیمایی Avianca از قاضی درخواست کرد که پرونده را رد کند، بنابراین تیم حقوقی ماتا با استناد به 12 مورد مشابه که در تلاش بودند قاضی را متقاعد کنند تا پرونده موکل خود را ادامه دهد، خلاصه ای را جمع آوری کرد. مجله نیویورک تایمز گزارش شده است.
قاضی کاستل با نگاهی به آنچه که او به ،وان یک ارسال قانونی مملو از «تصمیمات قضایی جعلی، با نقل قولهای جعلی و نقلقولهای جعلی داخلی» توصیف کرد و وضعیت را بیسابقه توصیف کرد، دستور دادرسی اوایل ماه آینده را برای بررسی مجازاتهای احتمالی صادر کرد.
مشکل این بود که وکلای شرکت هواپیمایی و قاضی نتوانستند مدرکی در مورد موارد ذکر شده در خلاصه پیدا کنند. چرا؟ زیرا ChatGPT همه آنها را ساخته بود.