مهندسان OpenAI در ت، برای قابل اعتمادتر ، فناوری چت بات خود نشان داده اند که در حال حاضر تلاش خود را بر روی بهبود نرم افزار خود متمرکز کرده اند تا این رخدادهای مشکل ساز را کاهش دهند و امیدواریم حذف شوند.
از جمله تمایل آنها به ساختن مطالب و ارائه آن به ،وان واقعیت زم، که پاسخ یک تحقیق را نمی داند، پدیده ای که به ،وان “توهم” شناخته می شود. همانطور که می تو،د تصور کنید، ارائه دروغ ها به ،وان واقعیت به ،ی که از یکی از موج جدید چت ربات های قدرتمند استفاده می کند می تواند عواقب جدی داشته باشد.

در یک مقاله تحقیقاتی منتشر شده در روز چهارشنبه و توسط CNBC انتخاب شده استOpenAI گفت که چت ربات ها «مایل به ابداع حقایق در لحظات عدم قطعیت را نشان می دهند» و افزود: «این توهمات به ویژه در حوزه هایی که نیاز به استدلال چند مرحله ای دارند مشکل ساز هستند، زیرا یک خطای منطقی برای منحرف ، راه حل بسیار بزرگتر کافی است.»
اما برخی از کارشناسان در مورد این کار ابراز تردید ،د و به CNBC گفتند تا زم، که در ChatGPT گنجانده نشود، فایده چند، ندارد، که در این بین توهمآور خواهد بود. OpenAI نگفته است که آیا و چه زم، ممکن است کار خود را در ابزارهای هوش مصنوعی خود بگنجاند یا نه.
در حالی که خوب است بد،د که OpenAI در حال کار بر روی حل این مشکل است، ممکن است مدتی طول بکشد تا شاهد هر گونه پیشرفتی باشیم. در همین حال، همانطور که خود OpenAI می گوید، ChatGPT ممکن است گهگاه اطلاعات نادرستی تولید کند، بنابراین اگر بخشی از وظایف مهم هستند، حتماً پاسخ های آن را تأیید کنید.
توصیه های سردبیران
منبع: https://www.di،altrends.com/computing/chatgpt-creator-seeking-to-eliminate-chatbot-hallucinations/
علیرغم همه هیجانها پیرامون ChatGPT و چتباتهای مشابه با هوش مصنوعی، ابزارهای مبتنی بر متن هنوز مشکلات جدی دارند که باید حل شوند.
برای مق، با گامهای اشتباه ربات چت، مهندسان OpenAI در حال کار بر روی روشهایی هستند که مدلهای هوش مصنوعی آن به جای اینکه فقط در نقطه نتیجهگیری به خود پاداش دهند، برای ،وجی دادههای صحیح در هنگام حرکت به سمت پاسخ، به خود پاداش دهند. به گفته مهندسان، این سیستم میتواند به نتایج بهتری منجر شود، زیرا روشهای زنجیرهای از فکر انسانمانند بیشتری را در خود جای داده است.
چنین مشکلی در یک حادثه اخیر برجسته شد که در آن یک وکیل با تجربه در شهر نیویورک مواردی را ذکر کرد – پیشنهاد ChatGPT – که معلوم شد هرگز اتفاق نیفتاده است. ممکن است وکیل در نتیجه اقدام خود با تحریم روبرو شود.
حادثه دیگری در آوریل مورد توجه گسترده قرار گرفت، زم، که ChatGPT ظاهرا تاریخ را با گفتن اینکه یک شهردار استرالیایی بازنویسی کرد به جرم رشوه به زندان افتاده بود در حالی که برای یک بانک کار می کرد، در حالی که او در واقع یک افشاگر در این پرونده بود.