خالق ChatGPT به دنبال حذف توهمات چت بات است

مهندسان OpenAI در ت، برای قابل اعتمادتر ، فناوری چت بات خود نشان داده اند که در حال حاضر تلاش خود را بر روی بهبود نرم افزار خود متمرکز کرده اند تا این رخدادهای مشکل ساز را کاهش دهند و امیدواریم حذف شوند.

از جمله تمایل آنها به ساختن مطالب و ارائه آن به ،وان واقعیت زم، که پاسخ یک تحقیق را نمی داند، پدیده ای که به ،وان “توهم” شناخته می شود. همانطور که می تو،د تصور کنید، ارائه دروغ ها به ،وان واقعیت به ،ی که از یکی از موج جدید چت ربات های قدرتمند استفاده می کند می تواند عواقب جدی داشته باشد.

لوگوی ChatGPT و OpenAI را نزدیک کنید.

در یک مقاله تحقیقاتی منتشر شده در روز چهارشنبه و توسط CNBC انتخاب شده استOpenAI گفت که چت ربات ها «مایل به ابداع حقایق در لحظات عدم قطعیت را نشان می دهند» و افزود: «این توهمات به ویژه در حوزه هایی که نیاز به استدلال چند مرحله ای دارند مشکل ساز هستند، زیرا یک خطای منطقی برای منحرف ، راه حل بسیار بزرگتر کافی است.»

اما برخی از کارشناسان در مورد این کار ابراز تردید ،د و به CNBC گفتند تا زم، که در ChatGPT گنجانده نشود، فایده چند، ندارد، که در این بین توهم‌آور خواهد بود. OpenAI نگفته است که آیا و چه زم، ممکن است کار خود را در ابزارهای هوش مصنوعی خود بگنجاند یا نه.

در حالی که خوب است بد،د که OpenAI در حال کار بر روی حل این مشکل است، ممکن است مدتی طول بکشد تا شاهد هر گونه پیشرفتی باشیم. در همین حال، همانطور که خود OpenAI می گوید، ChatGPT ممکن است گهگاه اطلاعات نادرستی تولید کند، بنابراین اگر بخشی از وظایف مهم هستند، حتماً پاسخ های آن را تأیید کنید.

توصیه های سردبیران







منبع: https://www.di،altrends.com/computing/chatgpt-creator-seeking-to-eliminate-chatbot-hallucinations/

علی‌رغم همه هیجان‌ها پیرامون ChatGPT و چت‌بات‌های مشابه با هوش مصنوعی، ابزارهای مبتنی بر متن هنوز مشکلات جدی دارند که باید حل شوند.

برای مق، با گام‌های اشتباه ربات چت، مهندسان OpenAI در حال کار بر روی روش‌هایی هستند که مدل‌های هوش مصنوعی آن به جای اینکه فقط در نقطه نتیجه‌گیری به خود پاداش دهند، برای ،وجی داده‌های صحیح در هنگام حرکت به سمت پاسخ، به خود پاداش دهند. به گفته مهندسان، این سیستم می‌تواند به نتایج بهتری منجر شود، زیرا روش‌های زنجیره‌ای از فکر انسان‌مانند بیشتری را در خود جای داده است.

چنین مشکلی در یک حادثه اخیر برجسته شد که در آن یک وکیل با تجربه در شهر نیویورک مواردی را ذکر کرد – پیشنهاد ChatGPT – که معلوم شد هرگز اتفاق نیفتاده است. ممکن است وکیل در نتیجه اقدام خود با تحریم روبرو شود.

حادثه دیگری در آوریل مورد توجه گسترده قرار گرفت، زم، که ChatGPT ظاهرا تاریخ را با گفتن اینکه یک شهردار استرالیایی بازنویسی کرد به جرم رشوه به زندان افتاده بود در حالی که برای یک بانک کار می کرد، در حالی که او در واقع یک افشاگر در این پرونده بود.