بهترین جایگزین های ChatGPT (طبق ChatGPT)

ChatGPT به سرعت تبدیل به محبوب هوش مصنوعی مولد شده است، اما به سختی تنها بازیکن در بازی است. علاوه بر سایر ابزارهای هوش مصنوعی که کارهایی مانند تولید تصویر را انجام می دهند، تعدادی رقیب مستقیم نیز با ChatGPT وجود دارد – یا اینطور که من تصور می کردم.

گوگل ALBERT را به ،وان منبع باز در ژانویه 2020 منتشر کرد و در بالای TensorFlow گوگل پیاده سازی شد. کد در دسترس است GitHub.

T5 توسط گوگل

T5 (Text-to-Text Transfer Transformer) یک مدل NLP است توسط گوگل معرفی شده است در سال 2019 که از مجموعه ای از مدل های قبلی، از جمله GPT، BERT، XLNet، RoBERTa، و ALBERT، وام گرفته است. الف را اضافه می کند مجموعه داده های جدید و منحصر به فرد به نام Colossal Clean Crawled Corpus (C4)، که به ترانسفورماتور اجازه می دهد تا نتایج با کیفیت و متنی بالاتری نسبت به مجموعه داده های دیگر در مقایسه با ،اش های وب رایج Crawl مورد استفاده برای XLNet تولید کند.
پیش آموزش Google T5 Text-to-Text Transfer Transformer.
پیش‌آموزش T5 منجر به ایجاد برنامه‌های چت بات از جمله InferKit Talk To Transformer و سیاه چال هوش مصنوعی بازی مولدهای متن شبیه ChatGPT هستند زیرا به شما امکان می دهند مکالمات واقعی را بر اساس آنچه که هوش مصنوعی پس از درخواست ها یا پرس و جوهای اولیه شما ایجاد می کند، ایجاد کنید.
کد T5 در دسترس است GitHub.

CTRL توسط Salesforce

CTRL توسط Salesforce (لایه استدلال و اعتماد مح،اتی) یکی از بزرگترین مدل‌های زبان منتشر شده عمومی بود. اعلام شد در سپتامبر 2019 توسط Salesforce. مدل زبان 1.6 میلیارد پارامتری را می توان برای تجزیه و تحلیل متن بزرگ به طور همزمان استفاده کرد، مانند موارد مرتبط با صفحات وب. برخی از کاربردهای عملی بالقوه شامل جفت شدن با نظرات، رتبه‌بندی‌ها و اسناد است.
نمونه ارجاع منبع CTRL Salesforce.
مدل زبان CTRL می تواند هدف یک پرس و جو خاص را تا نقطه گذاری متمایز کند. Salesforce اشاره کرد این مدل می تواند تفاوت بین “گرمایش جه، دروغ است” را تشخیص دهد. به ،وان یک نظر نامطلوب و “گرمایش جه، دروغ است” به ،وان یک تئوری توطئه به دلیل تفاوت دوره در عبارات و پیش نویس موضوعات مربوطه Reddit برای هر یک.
ارجاعات CTRL تا 140 گیگابایت داده برای پیش‌آموزش آن از منابع، از جمله ویکی‌پدیا، پروژه گوتنبرگ، بررسی‌های آمازون و ردیت. همچنین به تعدادی از اخبار، اطلاعات و منابع بین المللی اشاره می کند.
کد CTRL در دسترس است GitHub.

GShard توسط Google

با ALBERT، گوگل تعداد پارامترهای مجاز در مدل را با معرفی پارامترهایی با “جاسازی لایه پنهان” محدود کرد.

عملکرد ماشین در چالش RACE (درک خواندن شبیه به SAT) توسط Google

کد XLNet و مدل های از پیش آموزش دیده هستند در GitHub موجود است. این مدل در میان جامعه تحقیقاتی NLP به خوبی شناخته شده است.

DialoGPT توسط Microsoft Research

DialoGPT (Dialogue Generative Pre-trained Transformer) یک مدل زبان اتورگرسیو است که معرفی شد در نوامبر 2019 توسط Microsoft Research. این مدل با شباهت‌هایی به GPT-2، برای ایجاد مکالمه‌های انسان‌مانند از قبل آموزش داده شد. با این حال، منبع اصلی اطلاعات آن 147 میلیون دیالوگ چند چرخشی بود که از موضوعات Reddit حذف شده بود.

نمونه های تولید چند ،تی DiabloGPT.

آلبرت (یک برت ساده) نسخه کوتاه شده BERT اصلی است و توسط گوگل در دسامبر 2019 توسعه یافته است.

فیس بوک RoBERTa را ساخت متن باز در سپتامبر 2019، و کد آن است در GitHub موجود است برای آزمایش جامعه

BERT به دلیل توانایی‌های پردازش زبان طبیعی (NLP) مانند پاسخ‌گویی به سؤال و تحلیل احساسات شناخته شده است. این کتاب از BookCorpus و ویکی‌پدیا ،یسی به‌،وان مدل‌های خود برای پیش‌آموزش مراجع استفاده می‌کند و به ترتیب ۸۰۰ میلیون و ۲.۵ میلیارد کلمه را یاد گرفته است.

با استفاده از XLNet و BERT از نشانه‌های “ماسک شده” برای پیش‌بینی متن پنهان، XLNet با سرعت بخشیدن به بخش پیش‌بینی فرآیند، کارایی را بهبود می‌بخشد. به ،وان مثال، آیشواریا سرینیواسان، دانشمند داده آمازون ال،ا توضیح داد که XLNet قادر است کلمه “جدید” را به ،وان مرتبط با اصطلاح “شهر است” قبل از پیش بینی عبارت “York” به ،وان مرتبط با آن واژه شناسایی کند. در همین حال، BERT باید کلمات “New” و “York” را جداگانه شناسایی کند و سپس آنها را به ،وان مثال با عبارت “شهر است” مرتبط کند.

این آدرس ایمیل در حال حاضر در پرونده است. اگر خبرنامه دریافت نمی کنید، لطفاً پوشه اسپم خود را بررسی کنید.

کوبوس گریلینگ، مبشر اصلی HumanFirst اشاره کرده است موفقیت او در پیاده سازی DialoGPT در سرویس پیام رسان تلگرام برای زنده ، این مدل به ،وان یک ربات چت. او افزود که استفاده از خدمات وب آمازون و آمازون SageMaker می تواند به تنظیم دقیق کد کمک کند.

لطفاً برای ادامه یک آدرس ایمیل معتبر ارائه دهید.

کد پگاسوس در دسترس است GitHub.

این نه تنها در مدل BERT بلکه در XLNet و RoBERTa نیز بهبود یافته است، زیرا ALBERT می‌تواند بر روی همان مجموعه داده‌های بزرگ‌تری از اطلاعات مورد استفاده برای دو مدل جدیدتر آموزش داده شود و در عین حال به پارامترهای کوچک‌تر پایبند باشد. اساسا، ALBERT فقط با پارامترهای لازم برای عملکردهای خود کار می کند، که عملکرد و دقت را افزایش می دهد. گوگل توضیح داد که متوجه شده است که ALBERT در 12 معیار NLP از BERT فراتر رفته است، از جمله معیار درک خواندن شبیه به SAT.

VentureBeat همچنین GPT-2 را در میان سیستم های هوش مصنوعی در حال ظهور در آن زمان ذکر کرد.

XLNet توسط گوگل

با عرض پوزش، در حین اشتراک خطایی رخ داد. لطفاً بعداً دوباره امتحان کنید.

توصیه های سردبیران







منبع: https://www.di،altrends.com/computing/the-best-chatgpt-alternatives-according-to-chatgpt/

به ،وان یک جایگزین مستقیم برای GPT-2 OpenAI، Meena توانایی پردازش 8.5 برابر بیشتر از رقیب خود در آن زمان را داشت. شبکه عصبی آن شامل 2.6 پارامتر است و بر روی مکالمات رسانه های اجتماعی در حوزه عمومی آموزش داده شده است. Meena همچنین امتیاز متریک را در Sensibleness و Specificity Average (SSA) 79 درصد دریافت کرد که آن را به یکی از باهوش ترین چت ربات های زمان خود تبدیل کرد.

چرا از ChatGPT در مورد آن سؤال نمی کنید؟ این دقیقاً همان کاری است که من برای دریافت این لیست انجام دادم، به امید یافتن گزینه‌هایی برای ،، که با اعلامیه‌های «در حد ظرفیت» مواجه هستند، یا دیگر، که فقط می‌خواهند چیز جدیدی را امتحان کنند. همه اینها به اندازه ChatGPT در دسترس عموم نیستند، اما طبق گفته ChatGPT، اینها بهترین جایگزین ها هستند.

BERT توسط Google

کد DialoGPT در دسترس است GitHub.

ALBERT توسط گوگل

روبرتا (رویکرد پیش‌آموزشی BERT بهینه‌سازی قوی) نسخه پیشرفته دیگری از BERT اصلی است که فیس بوک اعلام کرد در جولای 2019

Blender با چت ربات Meena گوگل مقایسه شده است که به ،ه خود با GPT-2 OpenAI مقایسه شده است.


صندوق ورودی خود را بررسی کنید!

Pegasus یک مدل پردازش زبان طبیعی است که بود توسط گوگل معرفی شده است در دسامبر 2019. Pegasus را می توان برای ایجاد خلاصه آموزش داد، و مشابه مدل های دیگر مانند BERT، GPT-2، RoBERTa، XLNet، ALBERT و T5، می توان آن را برای کارهای خاص تنظیم کرد. Pegasus بر روی کارایی آن در خلاصه ، اخبار، علم، داستان‌ها، دستورالعمل‌ها، ایمیل‌ها، پتنت‌ها و لوایح قانونی در مقایسه با موضوعات انس، آزمایش شده است.

PEGASUS NLP از نظر کیفیت خلاصه با انسان مقایسه شده است.

کد Meena در دسترس است GitHub.

RoBERTa توسط فیس بوک

طبق تحقیقات فیس بوک، Silimar به XLNet، RoBERTa در مجموعه ای از مجموعه داده های معیار، BERT را ش،ت داد. برای به دست آوردن این نتایج، این شرکت نه تنها از یک منبع داده بزرگتر استفاده کرد، بلکه مدل خود را برای a از قبل آموزش داد مدت زمان طول، تر.

مینا یک چت بات است که گوگل معرفی کرد در ژانویه 2020 با توانایی مکالمه به شکل انسان. نمونه‌هایی از کارکردهای آن شامل مکالمات ساده‌ای است که شامل جوک‌ها و جناس‌های جالب می‌شود، مانند پیشنهاد مینا به ،ها که در هاروارد «علوم ،ی» را مطالعه کنند.

نمونه چت ربات Google Meena.

BERT (نمایش رمزگذار دوطرفه از Transformers) یک مدل یادگیری ماشینی است که توسط Google توسعه یافته است. بسیاری از نتایج ChatGPT به پروژه‌های Google اشاره کرده‌اند که بعداً در این لیست خواهید دید.

اخبار فناوری امروز که برای صندوق ورودی شما تنظیم و فشرده شده است

قابل توجه، GPT و GPT-2 هستند نیز ذکر شده است در این توضیح دهنده از سال 2019 به ،وان نمونه های دیگر از مدل های زبان اتورگرسیو.

اگرچه با نام ذکر نشده است، GPT در تصویربرداری ALBERT در وبلاگ تحقیقاتی Google گنجانده شده است.

کد Blender در دسترس است Parl.ai.

پگاسوس توسط گوگل

BERT برای اولین بار به ،وان یک اعلام شد پروژه تحقیقاتی منبع باز و مقاله دانشگاهی در اکتبر 2018. این فناوری از آن زمان در جستجوی Google پیاده سازی شده است. ادبیات اولیه درباره BERT آن را با ChatGPT OpenAI در نوامبر 2018 مقایسه می‌کند و خاطرنشان می‌کند که فناوری گوگل دو طرفه عمیق است که به پیش‌بینی متن ورودی کمک می‌کند. در همین حال، OpenAI GPT یک طرفه است و فقط می تواند به پرس و جوهای پیچیده پاسخ دهد.

Meena توسط گوگل

XLNET یک مدل زبان اتورگرسیو مبتنی بر ترانسفورماتور است که توسط تیمی توسعه یافته است گوگل برین و محققان دانشگاه کارنگی ملون. این مدل اساساً یک BERT پیشرفته‌تر است و برای اولین بار در ژوئن 2019 به نمایش گذاشته شد. گروه دریافتند که XLNet حداقل است. 16 درصد کارآمدتر نسبت به BERT اصلی که در سال 2018 معرفی شد، توانست برت را در آزمایشی از 20 کار NLP ش،ت دهد.

فیس بوک این مدل NLP را با منبع بزرگتر داده به ،وان مدل پیش آموزشی خود ایجاد کرد. RoBERTa از CommonCrawl (CC-News) استفاده می کند که شامل 63 میلیون مقاله خبری ،یسی است که بین سپتامبر 2016 و فوریه 2019 تولید شده است، به ،وان مجموعه داده 76 گیگابایتی خود. به گفته فیس بوک، در مقایسه، BERT اصلی از 16 گیگابایت داده بین مجموعه داده های Wikipedia ،یسی و BookCorpus خود استفاده می کند.

GShard یک است مدل ترجمه زبان غول پیکر که گوگل معرفی کرد در ژوئن 2020 به منظور مقیاس گذاری شبکه عصبی. این مدل شامل 600 میلیارد پارامتر است که امکان آموزش مجموعه های بزرگ داده را به یکباره فراهم می کند. GShard به ویژه در آن مهارت دارد ترجمه زبان و آموزش ترجمه 100 زبان به ،یسی در چهار روز.

Blender توسط Facebook AI Research

Blender یک چت بات منبع باز است که در آن معرفی شده است آوریل 2020 توسط فیس بوک AI Research. اشاره شده است که چت بات دارای مهارت‌های مکالمه‌ای نسبت به مدل‌های رقیب، با توانایی ارائه نکات گفتگوی جذاب، گوش دادن و نشان دادن درک نظرات شریک خود، و نشان دادن همدلی و شخصیت است.

مثال چت بات بلندر.