ChatGPT به سرعت تبدیل به محبوب هوش مصنوعی مولد شده است، اما به سختی تنها بازیکن در بازی است. علاوه بر سایر ابزارهای هوش مصنوعی که کارهایی مانند تولید تصویر را انجام می دهند، تعدادی رقیب مستقیم نیز با ChatGPT وجود دارد – یا اینطور که من تصور می کردم.
گوگل ALBERT را به ،وان منبع باز در ژانویه 2020 منتشر کرد و در بالای TensorFlow گوگل پیاده سازی شد. کد در دسترس است GitHub.
T5 (Text-to-Text Transfer Transformer) یک مدل NLP است توسط گوگل معرفی شده است در سال 2019 که از مجموعه ای از مدل های قبلی، از جمله GPT، BERT، XLNet، RoBERTa، و ALBERT، وام گرفته است. الف را اضافه می کند مجموعه داده های جدید و منحصر به فرد به نام Colossal Clean Crawled Corpus (C4)، که به ترانسفورماتور اجازه می دهد تا نتایج با کیفیت و متنی بالاتری نسبت به مجموعه داده های دیگر در مقایسه با ،اش های وب رایج Crawl مورد استفاده برای XLNet تولید کند.
پیشآموزش T5 منجر به ایجاد برنامههای چت بات از جمله InferKit Talk To Transformer و سیاه چال هوش مصنوعی بازی مولدهای متن شبیه ChatGPT هستند زیرا به شما امکان می دهند مکالمات واقعی را بر اساس آنچه که هوش مصنوعی پس از درخواست ها یا پرس و جوهای اولیه شما ایجاد می کند، ایجاد کنید.
CTRL توسط Salesforce (لایه استدلال و اعتماد مح،اتی) یکی از بزرگترین مدلهای زبان منتشر شده عمومی بود. اعلام شد در سپتامبر 2019 توسط Salesforce. مدل زبان 1.6 میلیارد پارامتری را می توان برای تجزیه و تحلیل متن بزرگ به طور همزمان استفاده کرد، مانند موارد مرتبط با صفحات وب. برخی از کاربردهای عملی بالقوه شامل جفت شدن با نظرات، رتبهبندیها و اسناد است.
مدل زبان CTRL می تواند هدف یک پرس و جو خاص را تا نقطه گذاری متمایز کند. Salesforce اشاره کرد این مدل می تواند تفاوت بین “گرمایش جه، دروغ است” را تشخیص دهد. به ،وان یک نظر نامطلوب و “گرمایش جه، دروغ است” به ،وان یک تئوری توطئه به دلیل تفاوت دوره در عبارات و پیش نویس موضوعات مربوطه Reddit برای هر یک.
ارجاعات CTRL تا 140 گیگابایت داده برای پیشآموزش آن از منابع، از جمله ویکیپدیا، پروژه گوتنبرگ، بررسیهای آمازون و ردیت. همچنین به تعدادی از اخبار، اطلاعات و منابع بین المللی اشاره می کند.
DialoGPT (Dialogue Generative Pre-trained Transformer) یک مدل زبان اتورگرسیو است که معرفی شد در نوامبر 2019 توسط Microsoft Research. این مدل با شباهتهایی به GPT-2، برای ایجاد مکالمههای انسانمانند از قبل آموزش داده شد. با این حال، منبع اصلی اطلاعات آن 147 میلیون دیالوگ چند چرخشی بود که از موضوعات Reddit حذف شده بود.
آلبرت (یک برت ساده) نسخه کوتاه شده BERT اصلی است و توسط گوگل در دسامبر 2019 توسعه یافته است.
BERT به دلیل تواناییهای پردازش زبان طبیعی (NLP) مانند پاسخگویی به سؤال و تحلیل احساسات شناخته شده است. این کتاب از BookCorpus و ویکیپدیا ،یسی به،وان مدلهای خود برای پیشآموزش مراجع استفاده میکند و به ترتیب ۸۰۰ میلیون و ۲.۵ میلیارد کلمه را یاد گرفته است.
با استفاده از XLNet و BERT از نشانههای “ماسک شده” برای پیشبینی متن پنهان، XLNet با سرعت بخشیدن به بخش پیشبینی فرآیند، کارایی را بهبود میبخشد. به ،وان مثال، آیشواریا سرینیواسان، دانشمند داده آمازون ال،ا توضیح داد که XLNet قادر است کلمه “جدید” را به ،وان مرتبط با اصطلاح “شهر است” قبل از پیش بینی عبارت “York” به ،وان مرتبط با آن واژه شناسایی کند. در همین حال، BERT باید کلمات “New” و “York” را جداگانه شناسایی کند و سپس آنها را به ،وان مثال با عبارت “شهر است” مرتبط کند.
این آدرس ایمیل در حال حاضر در پرونده است. اگر خبرنامه دریافت نمی کنید، لطفاً پوشه اسپم خود را بررسی کنید.
کوبوس گریلینگ، مبشر اصلی HumanFirst اشاره کرده است موفقیت او در پیاده سازی DialoGPT در سرویس پیام رسان تلگرام برای زنده ، این مدل به ،وان یک ربات چت. او افزود که استفاده از خدمات وب آمازون و آمازون SageMaker می تواند به تنظیم دقیق کد کمک کند.
این نه تنها در مدل BERT بلکه در XLNet و RoBERTa نیز بهبود یافته است، زیرا ALBERT میتواند بر روی همان مجموعه دادههای بزرگتری از اطلاعات مورد استفاده برای دو مدل جدیدتر آموزش داده شود و در عین حال به پارامترهای کوچکتر پایبند باشد. اساسا، ALBERT فقط با پارامترهای لازم برای عملکردهای خود کار می کند، که عملکرد و دقت را افزایش می دهد. گوگل توضیح داد که متوجه شده است که ALBERT در 12 معیار NLP از BERT فراتر رفته است، از جمله معیار درک خواندن شبیه به SAT.
VentureBeat همچنین GPT-2 را در میان سیستم های هوش مصنوعی در حال ظهور در آن زمان ذکر کرد.
به ،وان یک جایگزین مستقیم برای GPT-2 OpenAI، Meena توانایی پردازش 8.5 برابر بیشتر از رقیب خود در آن زمان را داشت. شبکه عصبی آن شامل 2.6 پارامتر است و بر روی مکالمات رسانه های اجتماعی در حوزه عمومی آموزش داده شده است. Meena همچنین امتیاز متریک را در Sensibleness و Specificity Average (SSA) 79 درصد دریافت کرد که آن را به یکی از باهوش ترین چت ربات های زمان خود تبدیل کرد.
چرا از ChatGPT در مورد آن سؤال نمی کنید؟ این دقیقاً همان کاری است که من برای دریافت این لیست انجام دادم، به امید یافتن گزینههایی برای ،، که با اعلامیههای «در حد ظرفیت» مواجه هستند، یا دیگر، که فقط میخواهند چیز جدیدی را امتحان کنند. همه اینها به اندازه ChatGPT در دسترس عموم نیستند، اما طبق گفته ChatGPT، اینها بهترین جایگزین ها هستند.
روبرتا (رویکرد پیشآموزشی BERT بهینهسازی قوی) نسخه پیشرفته دیگری از BERT اصلی است که فیس بوک اعلام کرد در جولای 2019
Blender با چت ربات Meena گوگل مقایسه شده است که به ،ه خود با GPT-2 OpenAI مقایسه شده است.
صندوق ورودی خود را بررسی کنید!
Pegasus یک مدل پردازش زبان طبیعی است که بود توسط گوگل معرفی شده است در دسامبر 2019. Pegasus را می توان برای ایجاد خلاصه آموزش داد، و مشابه مدل های دیگر مانند BERT، GPT-2، RoBERTa، XLNet، ALBERT و T5، می توان آن را برای کارهای خاص تنظیم کرد. Pegasus بر روی کارایی آن در خلاصه ، اخبار، علم، داستانها، دستورالعملها، ایمیلها، پتنتها و لوایح قانونی در مقایسه با موضوعات انس، آزمایش شده است.
طبق تحقیقات فیس بوک، Silimar به XLNet، RoBERTa در مجموعه ای از مجموعه داده های معیار، BERT را ش،ت داد. برای به دست آوردن این نتایج، این شرکت نه تنها از یک منبع داده بزرگتر استفاده کرد، بلکه مدل خود را برای a از قبل آموزش داد مدت زمان طول، تر.
مینا یک چت بات است که گوگل معرفی کرد در ژانویه 2020 با توانایی مکالمه به شکل انسان. نمونههایی از کارکردهای آن شامل مکالمات سادهای است که شامل جوکها و جناسهای جالب میشود، مانند پیشنهاد مینا به ،ها که در هاروارد «علوم ،ی» را مطالعه کنند.
BERT (نمایش رمزگذار دوطرفه از Transformers) یک مدل یادگیری ماشینی است که توسط Google توسعه یافته است. بسیاری از نتایج ChatGPT به پروژههای Google اشاره کردهاند که بعداً در این لیست خواهید دید.
اخبار فناوری امروز که برای صندوق ورودی شما تنظیم و فشرده شده است
قابل توجه، GPT و GPT-2 هستند نیز ذکر شده است در این توضیح دهنده از سال 2019 به ،وان نمونه های دیگر از مدل های زبان اتورگرسیو.
اگرچه با نام ذکر نشده است، GPT در تصویربرداری ALBERT در وبلاگ تحقیقاتی Google گنجانده شده است.
BERT برای اولین بار به ،وان یک اعلام شد پروژه تحقیقاتی منبع باز و مقاله دانشگاهی در اکتبر 2018. این فناوری از آن زمان در جستجوی Google پیاده سازی شده است. ادبیات اولیه درباره BERT آن را با ChatGPT OpenAI در نوامبر 2018 مقایسه میکند و خاطرنشان میکند که فناوری گوگل دو طرفه عمیق است که به پیشبینی متن ورودی کمک میکند. در همین حال، OpenAI GPT یک طرفه است و فقط می تواند به پرس و جوهای پیچیده پاسخ دهد.
XLNET یک مدل زبان اتورگرسیو مبتنی بر ترانسفورماتور است که توسط تیمی توسعه یافته است گوگل برین و محققان دانشگاه کارنگی ملون. این مدل اساساً یک BERT پیشرفتهتر است و برای اولین بار در ژوئن 2019 به نمایش گذاشته شد. گروه دریافتند که XLNet حداقل است. 16 درصد کارآمدتر نسبت به BERT اصلی که در سال 2018 معرفی شد، توانست برت را در آزمایشی از 20 کار NLP ش،ت دهد.
فیس بوک این مدل NLP را با منبع بزرگتر داده به ،وان مدل پیش آموزشی خود ایجاد کرد. RoBERTa از CommonCrawl (CC-News) استفاده می کند که شامل 63 میلیون مقاله خبری ،یسی است که بین سپتامبر 2016 و فوریه 2019 تولید شده است، به ،وان مجموعه داده 76 گیگابایتی خود. به گفته فیس بوک، در مقایسه، BERT اصلی از 16 گیگابایت داده بین مجموعه داده های Wikipedia ،یسی و BookCorpus خود استفاده می کند.
GShard یک است مدل ترجمه زبان غول پیکر که گوگل معرفی کرد در ژوئن 2020 به منظور مقیاس گذاری شبکه عصبی. این مدل شامل 600 میلیارد پارامتر است که امکان آموزش مجموعه های بزرگ داده را به یکباره فراهم می کند. GShard به ویژه در آن مهارت دارد ترجمه زبان و آموزش ترجمه 100 زبان به ،یسی در چهار روز.
Blender یک چت بات منبع باز است که در آن معرفی شده است آوریل 2020 توسط فیس بوک AI Research. اشاره شده است که چت بات دارای مهارتهای مکالمهای نسبت به مدلهای رقیب، با توانایی ارائه نکات گفتگوی جذاب، گوش دادن و نشان دادن درک نظرات شریک خود، و نشان دادن همدلی و شخصیت است.