راهنمای آنجلینا جولی برای بک لینک

در سال ۲۰۱۷، محققان اوپن ای آی و دیپ مایند گزارش دادند که یک الگوریتم یادگیری تقویتی با استفاده از مدل پیشبینی کننده پاداش، قادر به یادگیری رفتارهای پیچیده جدید در یک محیط مجازی بودهاست. اوراکل انگیزه برای فرار از محیط کنترل شده خود خواهد داشت تا بتواند منابع محاسباتی بیشتری بهدست آورد و بالقوه سوالاتی را که از او پرسیده میشود کنترل کند. بک لینک به معنای لینکی است که از یک وب سایت به وب سایت دیگر داده میشود. جعبه هوش مصنوعی یک روش پیشنهادی برای کنترل قابلیت هوش مصنوعی است که در آن هوش مصنوعی روی یک سیستم رایانه ای جداگانه با کانالهای ورودی و خروجی بسیار محدود اجرا میشود. هدفهای پیشنهادی کنترل توانایی، در تلاش اند تا ظرفیت سیستمهای هوش مصنوعی برای اثرگذاری بر جهان را به منظور کاهش خطری که میتوانند ایجاد کنند، کاهش دهند. بهطور گستردهتر، معماریهای پیشنهاد شده، چه ضعیف و چه فوق هوشمند، به گونه ای «طوری عمل خواهد کرد که انگار کلید کشتار هرگز قابل فشردن نیست» و از این رو ممکن است در برنامهریزی نقشههای احتمالی برای خاموش کردن روان شکست بخورد.

در عین حال ، کنترل ابرهوش مهر و موم شده ممکن است دشوار باشد، اگر ابرهوش توانایی متقاعدسازی یا مهارت برنامهریزی استراتژیک فرابشری داشته باشد که بتواند از آن برای یافتن و ساختن یک استراتژی بردن، مانند رفتار کردن به گونه ای کخ برنامه نویسانش را گول بزند تا (احتمالاً به دروغ) باور کنند که ابرهوش ایمن است یا اینکه مزایای انتشارش بیش از خطراتش است. یک چالش این است که، اگر خاموش بودن مانع دستیابی به اهداف فعلی شود، یک ابرهوش احتمالاً سعی میکند از خاموش شدنش جلوگیری کند. یک راه حل جزئی برای مسئله کلید کشتار شامل «توازن ابزار» است: برخی از عوامل مبتنی بر ابزار میتوانند با برخی از هشدارهای مهم برنامهریزی شوند تا هرگونه ابزار از دست رفته ناشی از قطع یا خاموش شدن را جبران کنند؛ یعنی در نهایت نسبت به هر گونه اختلال بیتفاوت خواهد بود. از سوی دیگر، در سال ۲۰۱۶، دانشمندان لوران اورسو و استوارت آرمسترانگ ثابت کردند که گروه گستردهای از عوامل، به نام عوامل قطع شونده ایمن (SIA یا safely interruptible agents)، در نهایت میتوانند یاد بگیرند تا نسبت به فشار دادن کلید کشتار خود بیتفاوت باشند. هدفیلد-منل و همکارانش پیشنهاد دادند که این عوامل هوشمند میتوانند با مشاهده و تفسیر سیگنالهای پاداش در محیط خود، عملکردهای معلمان انسانی خود را یاد بگیرند.

همانطور که انسانها سیستمهایی برای جلوگیری یا حافظت از خود در برابر مهاجمان دارند، چنین ابر هوشی نیز انگیزه خواهد داشت که برای جلوگیری از خاموش شدن خود برنامهریزی استراتژیک انجام دهد. 162-163 استدلال او این است که اوراکل، با سادهتر بودن از یک ابرهوش عادی، در شرایط در نظر گرفته شده شانس بیشتری در کنترل کردن آن خواهیم داشت. هک کردن سیستمهای دیگر برای نصب و اجرای نسخههای پشتیبان خود، یا ایجاد سایر عوامل ابر هوشمندِ متحد بدون کلید کشتار. این میتواند از نظر فرضی، یک مشکل عملی حتی برای هوش مصنوعی ضعیف ایجاد کند. ایروینگ و همکاران همراه با OpenAI آموزش هوش مصنوعی را با استفاده از مباحثه بین سیستمهای هوش مصنوعی، با قضاوت برنده توسط انسان پیشنهاد کردهاست. بهطور پیشگیرانه، از بین بردن هرکسی که میخواهد کامپیوتر را خاموش کند. تکنیک های پایین راه هایی را برای توزیع کردن دیتاست ها بین عوامل توزیع شده را به صورت ایمن ارائه میدهد. برای آن مشکل، راهحل مناسبی اندیشیده و اقدام به انتشار محتوا در سایت کنید. در این زمینه حتما لازم است به نکاتی توجه داشته باشید از جمله این نکات این است که این لینک برای سایت شما دارای چه ارزشی و چه میزانی است.