تحقیقات جنبه تیره‌تر چت ربات هوش مصنوعی، ChatGPT را نشان می‌دهد


آ بررسی زمان جنبه تیره‌تر صنعت چت بات‌های هوش مصنوعی را آشکار کرده است و نشان می‌دهد که چگونه حداقل یک استارت‌آپ از روش‌های مشکوک برای بهبود فناوری خود استفاده می‌کند.

گزارش تایم که در روز چهارشنبه منتشر شد، بر OpenAI با پشتیب، مایکروسافت و ربات چت ChatGPT آن تمرکز دارد، فناوری که اخیرا به دلیل توانایی قابل توجه خود در تولید متن محاوره ای بسیار طبیعی توجه زیادی را به خود جلب کرده است.

تحقیقات تایم نشان داد که برای آموزش فناوری هوش مصنوعی، OpenAI از خدمات تیمی در کنیا برای بررسی متنی که شامل موضوعات آزاردهنده ای مانند سوء استفاده ، از کودکان، حیوان خواری، قتل، خودکشی، شکنجه، آسیب رساندن به خود و ،ی با محارم است، استفاده کرده است. و برای تلاش‌هایشان برای بر،ب‌گذاری محتوای نفرت‌انگیز، بسیاری از اعضای تیم کمتر از ۲ دلار در ساعت دریافت ،د.

این کار، که در نوامبر 2021 آغاز شد، ضروری بود زیرا سلف ChatGPT، GPT-3، در عین چشمگیر بودن، تمایل به انتشار محتوای توهین آمیز داشت، زیرا مجموعه داده آموزشی آن با حذف صدها میلیارد کلمه از گوشه و کنار وب گردآوری شده بود. .

تیم مستقر در کنیا، که توسط شرکت سانفرانسیسکو Sama اداره می‌شود، محتوای توهین‌آمیز را برای کمک به آموزش ربات چت OpenAI بر،ب‌گذاری می‌کند، در نتیجه مجموعه داده‌های آن را بهبود می‌بخشد و احتمال هرگونه ،وجی اعتراضی را کاهش می‌دهد.

تایم گفت که هر چهار نفر از کارمندان سما که با آنها مصاحبه شد، توصیف ،د که از نظر رو، به خاطر کارشان آسیب دیده اند. سما جلسات مشاوره ارائه کرد، اما کارمندان گفتند که این جلسات بی اثر بوده و به ندرت به دلیل نیازهای شغلی انجام می شود، اگرچه سخنگوی سما به تایم گفت که درمانگران در هر زم، در دسترس هستند.

یکی از کارگران به تایم گفت که خواندن مطالب تکان دهنده گاهی شبیه “شکنجه” است و افزود که تا پایان هفته احساس “آشفتگی” می کنند.

در فوریه 2022، زم، که OpenAI پروژه جداگانه‌ای غیرمرتبط با ChatGPT را راه‌اندازی کرد که تیم کنیا خود را م،م به جمع‌آوری تصاویری با ماهیت ، و خشونت‌آمیز کرد، اوضاع برای Sama حتی تیره‌تر شد. OpenAI به تایم گفت که این کار برای ایمن‌تر ، ابزارهای هوش مصنوعی آن ضروری است.

در عرض چند هفته پس از شروع این پروژه مبتنی بر تصویر، ماهیت هشداردهنده وظایف سما را بر آن داشت تا تمام قراردادهای خود با OpenAI را لغو کند، اگرچه تایم نشان می‌دهد که ممکن است ناشی از پیامدهای روابط عمومی گزارشی در مورد موضوع مشابهی نیز باشد. تقریباً در همان زمان در مورد فیس بوک منتشر شد.

هوش مصنوعی باز به تایم گفت که در مورد ماهیت تصاویری که از سما خواسته است آنها را جمع‌آوری کند، «تفاوت نادرستی» وجود داشته است و اصرار داشت که افراطی‌ترین تصاویر را نخواسته و هیچ تصویری را که ارسال شده بود مشاهده نکرده است.

اما پایان دادن به قراردادها معیشت کارگران را تحت تأثیر قرار داد، به طوری که برخی از تیم در کنیا شغل خود را از دست دادند، در حالی که برخی دیگر به پروژه‌های کم‌درآمد منتقل شدند.

تحقیق تایم نگاهی ناخوشایند اما مهم به نوع کاری که روی چت ربات های مجهز به هوش مصنوعی انجام می شود ارائه می دهد که اخیراً صنعت فناوری را بسیار هیجان زده کرده است.

این فناوری در حالی که تحول‌آفرین و بالقوه سودمند است، به وضوح به قیمت انس، تمام می‌شود، و سوالات اخلاقی زیادی را در مورد چگونگی توسعه فناوری‌های جدید شرکت‌ها و به طور گسترده‌تر در مورد اینکه چگونه کشورهای ثروتمندتر همچنان به انجام وظایف کمتر مطلوب به کشورهای فقیرتر ادامه می‌دهند، مطرح می‌کند. برای هزینه مالی کمتر

استارت‌آپ‌های پشتیبان این فناوری در ماه‌ها و سال‌های آینده تحت نظارت دقیق‌تری قرار خواهند گرفت، بنابراین بهتر است در اولین فرصت، شیوه‌های خود را بررسی و بهبود بخشند.

Di،al Trends برای نظر دادن در مورد گزارش Time با OpenAI تماس گرفته است و ما این مقاله را به محض شنیدن پاسخ به روز رس، خواهیم کرد.

اخبار فناوری امروز که برای صندوق ورودی شما تنظیم و فشرده شده است


صندوق ورودی خود را بررسی کنید!

لطفاً برای ادامه یک آدرس ایمیل معتبر ارائه دهید.

این آدرس ایمیل در حال حاضر در پرونده است. اگر خبرنامه دریافت نمی کنید، لطفاً پوشه اسپم خود را بررسی کنید.

با عرض پوزش، در حین اشتراک خطایی رخ داد. لطفاً بعداً دوباره امتحان کنید.

توصیه های سردبیران







منبع: https://www.di،altrends.com/computing/investigation-exposes-murkier-side-of-ai-chatbot-industry/