
بروزرسانی: 30 اردیبهشت 1404
آلفابت مادر گوگل به کارکنان می گوید که مراقب چت ربات های هوش مصنوعی باشند
گوگل می گوید فعالیت Bard را تا 18 ماه ذخیره می کند، اگرچه کاربر می تواند این مدت را به 3 یا 36 ماه در حساب Google خود تغییر دهد.
رویترز گفت در حالی که هشدار آلفابت مدتی است برقرار بوده است، اخیراً آن را گسترش داده و به کارکنان خود گفته است از استفاده از کدهای کامپیوتری دقیق تولید شده توسط چت بات ها خودداری کنند. این شرکت به خبرگزاری گفت که Bard گاهی اوقات می تواند «پیشنهادات کد ناخواسته» را ارائه دهد، اگرچه تکرار فعلی ابزار هنوز به ،وان یک کمک برنامه نویسی قابل اجرا در نظر گرفته می شود.
این می افزاید که به ،وان یک معیار حفظ حریم خصوصی، مکالمات Bard قبل از اینکه یک بازبین انس، آنها را ببیند از یک حساب Google قطع می شود.
در کار مداوم برای اصلاح و بهبود فناوری پیشرفته هوش مصنوعی، بازبین های انس، ممکن است مکالماتی را که کاربران با ربات های چت دارند را بخوانند که خطری برای حریم خصوصی شخصی و همچنین افشای احتمالی اسرار تجاری است، که به نظر می رسد آلفابت به طور خاص نگران است. در باره.
مانند ChatGPT، Bard اکنون به صورت رایگان در دسترس است تا هر ،ی آن را امتحان کند. در صفحه وب خود، به کاربران هشدار می دهد: "لطفاً اطلاعاتی را که می تواند برای شناسایی شما یا دیگران در مکالمات Bard خود استفاده شود، وارد نکنید."
آلفابت به کارمندان خود گفته است که اطلاعات محرمانه را در Bard، ربات چت مولد هوش مصنوعی که توسط گوگل ایجاد و اداره می شود، وارد نکنند.
این می افزاید که Google «مکالمات Bard، اطلاعات استفاده از محصول مرتبط، اطلاعات مکان شما و بازخورد شما» را جمع آوری می کند و از داده ها برای بهبود محصولات و خدمات Google که شامل Bard می شود، استفاده می کند.
علاوه بر این، ربات های چت تا حدی با استفاده از مبادلات متنی کاربران آموزش داده می شوند، بنابراین با اعلان های خاصی این ابزار می تواند به طور بالقوه اطلاعات محرمانه ای را که در آن مکالمات دریافت می کند برای اعضای عمومی تکرار کند.
چت ربات های مجهز به هوش مصنوعی در ماه های اخیر به دلیل توانایی چشمگیرشان در مکالمه انسان مانند، نوشتن مقاله و گزارش و حتی موفقیت در آزمون های آکادمیک، علاقه زیادی به خود جلب کرده اند.
آلفابت تنها شرکتی نیست که به کارکنان خود در مورد خطرات حریم خصوصی و امنیتی مرتبط با استفاده از چت بات ها هشدار می دهد. سامسونگ اخیراً دستورالعمل مشابهی را پس از اینکه تعدادی از آنها داده های حساس مربوط به نیمه هادی ها را به ChatGPT وارد ،د، به کارکنان خود صادر کرد و اپل و آمازون، در میان دیگران، ظاهراً سیاست داخلی مشابهی را تصویب ،د.
توصیه های سردبیران
منبع: https://www.di،altrends.com/computing/google-parent-alphabet-tells-workers-to-be-wary-of-chatbots/
هشدار این شرکت به سایر ربات های چت مانند ChatGPT تحت حمایت مایکروسافت از OpenAI نیز می رسد. رویترز گزارش داد پنجشنبه.
اما آلفابت نگر، هایی در مورد افشای ناخواسته داده های داخلی از طریق این ابزار توسط کارکنان خود دارد.