اخبار فناوری امروز که برای صندوق ورودی شما تنظیم و فشرده شده است
این کار، که در نوامبر 2021 آغاز شد، ضروری بود زیرا سلف ChatGPT، GPT-3، در عین چشمگیر بودن، تمایل به انتشار محتوای توهین آمیز داشت، زیرا مجموعه داده آموزشی آن با حذف صدها میلیارد کلمه از گوشه و کنار وب گردآوری شده بود. .
تایم گفت که هر چهار نفر از کارمندان سما که با آنها مصاحبه شد، توصیف ،د که از نظر رو، به خاطر کارشان آسیب دیده اند. سما جلسات مشاوره ارائه کرد، اما کارمندان گفتند که این جلسات بی اثر بوده و به ندرت به دلیل نیازهای شغلی انجام می شود، اگرچه سخنگوی سما به تایم گفت که درمانگران در هر زم، در دسترس هستند.
در عرض چند هفته پس از شروع این پروژه مبتنی بر تصویر، ماهیت هشداردهنده وظایف سما را بر آن داشت تا تمام قراردادهای خود با OpenAI را لغو کند، اگرچه تایم نشان میدهد که ممکن است ناشی از پیامدهای روابط عمومی گزارشی در مورد موضوع مشابهی نیز باشد. تقریباً در همان زمان در مورد فیس بوک منتشر شد.
تحقیقات تایم نشان داد که برای آموزش فناوری هوش مصنوعی، OpenAI از خدمات تیمی در کنیا برای بررسی متنی که شامل موضوعات آزاردهنده ای مانند سوء استفاده ، از کودکان، حیوان خواری، قتل، خودکشی، شکنجه، آسیب رساندن به خود و ،ی با محارم است، استفاده کرده است. و برای تلاشهایشان برای بر،بگذاری محتوای نفرتانگیز، بسیاری از اعضای تیم کمتر از ۲ دلار در ساعت دریافت ،د.
هوش مصنوعی باز به تایم گفت که در مورد ماهیت تصاویری که از سما خواسته است آنها را جمعآوری کند، «تفاوت نادرستی» وجود داشته است و اصرار داشت که افراطیترین تصاویر را نخواسته و هیچ تصویری را که ارسال شده بود مشاهده نکرده است.
این آدرس ایمیل در حال حاضر در پرونده است. اگر خبرنامه دریافت نمی کنید، لطفاً پوشه اسپم خود را بررسی کنید.
Di،al Trends برای نظر دادن در مورد گزارش Time با OpenAI تماس گرفته است و ما این مقاله را به محض شنیدن پاسخ به روز رس، خواهیم کرد.

تیم مستقر در کنیا، که توسط شرکت سانفرانسیسکو Sama اداره میشود، محتوای توهینآمیز را برای کمک به آموزش ربات چت OpenAI بر،بگذاری میکند، در نتیجه مجموعه دادههای آن را بهبود میبخشد و احتمال هرگونه ،وجی اعتراضی را کاهش میدهد.
صندوق ورودی خود را بررسی کنید!
یکی از کارگران به تایم گفت که خواندن مطالب تکان دهنده گاهی شبیه “شکنجه” است و افزود که تا پایان هفته احساس “آشفتگی” می کنند.
گزارش تایم که در روز چهارشنبه منتشر شد، بر OpenAI با پشتیب، مایکروسافت و ربات چت ChatGPT آن تمرکز دارد، فناوری که اخیرا به دلیل توانایی قابل توجه خود در تولید متن محاوره ای بسیار طبیعی توجه زیادی را به خود جلب کرده است.
با عرض پوزش، در حین اشتراک خطایی رخ داد. لطفاً بعداً دوباره امتحان کنید.
توصیه های سردبیران
منبع: https://www.di،altrends.com/computing/investigation-exposes-murkier-side-of-ai-chatbot-industry/
استارتآپهای پشتیبان این فناوری در ماهها و سالهای آینده تحت نظارت دقیقتری قرار خواهند گرفت، بنابراین بهتر است در اولین فرصت، شیوههای خود را بررسی و بهبود بخشند.
اما پایان دادن به قراردادها معیشت کارگران را تحت تأثیر قرار داد، به طوری که برخی از تیم در کنیا شغل خود را از دست دادند، در حالی که برخی دیگر به پروژههای کمدرآمد منتقل شدند.
این فناوری در حالی که تحولآفرین و بالقوه سودمند است، به وضوح به قیمت انس، تمام میشود، و سوالات اخلاقی زیادی را در مورد چگونگی توسعه فناوریهای جدید شرکتها و به طور گستردهتر در مورد اینکه چگونه کشورهای ثروتمندتر همچنان به انجام وظایف کمتر مطلوب به کشورهای فقیرتر ادامه میدهند، مطرح میکند. برای هزینه مالی کمتر
لطفاً برای ادامه یک آدرس ایمیل معتبر ارائه دهید.
در فوریه 2022، زم، که OpenAI پروژه جداگانهای غیرمرتبط با ChatGPT را راهاندازی کرد که تیم کنیا خود را م،م به جمعآوری تصاویری با ماهیت ، و خشونتآمیز کرد، اوضاع برای Sama حتی تیرهتر شد. OpenAI به تایم گفت که این کار برای ایمنتر ، ابزارهای هوش مصنوعی آن ضروری است.
تحقیق تایم نگاهی ناخوشایند اما مهم به نوع کاری که روی چت ربات های مجهز به هوش مصنوعی انجام می شود ارائه می دهد که اخیراً صنعت فناوری را بسیار هیجان زده کرده است.
آ بررسی زمان جنبه تیرهتر صنعت چت باتهای هوش مصنوعی را آشکار کرده است و نشان میدهد که چگونه حداقل یک استارتآپ از روشهای مشکوک برای بهبود فناوری خود استفاده میکند.