Seuraava artikkeli auttaa sinua: Parhaat ChatGPT-vaihtoehdot (ChatGPT:n mukaan)
ChatGPT:stä on nopeasti tullut generatiivisen tekoälyn rakas, mutta se tuskin on pelin ainoa pelaaja. Kaikkien muiden olemassa olevien tekoälytyökalujen lisäksi, jotka tekevät esimerkiksi kuvien luomista, ChatGPT:llä on myös useita suoria kilpailijoita – tai niin oletin.
Mikset kysy ChatGPT:ltä siitä? Juuri näin tein saadakseni tämän luettelon toivoen löytäväni vaihtoehtoja niille, jotka kohtaavat “kapasiteettia” koskevia ilmoituksia tai muille, jotka haluavat vain kokeilla jotain uutta. Kaikki nämä eivät ole yhtä yleisön saatavilla kuin ChatGPT, mutta ChatGPT:n mukaan nämä ovat parhaita vaihtoehtoja.
Microsoftin Bing
Ennen kuin pääset tekoälyn listaamiin valintoihin, paras vaihtoehto ChatGPT:lle on ChatGPT. Microsoft lisäsi äskettäin tekoälyn Bing-hakukoneeseensa, ja se aikoo ottaa ominaisuuden käyttöön Edge-selaimessa pian.
Se on vasta esikatselussa, mutta voit silti kokeilla uutta AI-chatbotia osoitteessa bing.com/new juuri nyt. Microsoft sanoo rajoittavansa kyselyiden määrää aluksi, mutta voit liittyä Bing ChatGPT:n jonotuslistalle saadaksesi ilmoituksen, kun täysi versio on saatavilla.
Googlen BERT
BERT (Bidirectional Encoder Representations from Transformers) on Googlen kehittämä koneoppimismalli. Useissa ChatGPT:n tuloksissa mainittiin Googlen projektit, jotka näet myöhemmin tässä luettelossa.
BERT tunnetaan luonnollisen kielenkäsittelyn (NLP) kyvystään, kuten kysymysvastaamisesta ja tunteiden analysoinnista. Se käyttää BookCorpusta ja englanninkielistä Wikipediaa malleina viitteiden esikoulutukseen, koska se on oppinut 800 miljoonaa ja 2,5 miljardia sanaa.
BERT julkistettiin ensimmäisen kerran avoimen lähdekoodin tutkimusprojektina ja akateemisena paperina lokakuussa 2018. Tekniikka on sittemmin otettu käyttöön Google-haussa. BERTiä koskeva varhainen kirjallisuus vertaa sitä OpenAI:n ChatGPT:hen marraskuussa 2018, ja siinä todetaan, että Googlen tekniikka on syvään kaksisuuntaista, mikä auttaa ennakoimaan saapuvaa tekstiä. Samaan aikaan OpenAI GPT on yksisuuntainen ja voi vastata vain monimutkaisiin kyselyihin.
Googlen Meena
Meena on chatbot, jonka Google esitteli tammikuussa 2020 ja jolla on kyky keskustella inhimillisesti. Esimerkkejä sen toiminnoista ovat yksinkertaiset keskustelut, jotka sisältävät mielenkiintoisia vitsejä ja sanaleikkejä, kuten Meena ehdottaa lehmiä opiskelemaan “Nautatieteitä” Harvardissa.
Suorana vaihtoehtona OpenAI:n GPT-2:lle Meena kykeni käsittelemään 8,5 kertaa niin paljon dataa kuin kilpailijansa tuolloin. Sen hermoverkko käsittää 2,6 parametria ja se on koulutettu julkisiin sosiaalisen median keskusteluihin. Meena sai myös Sensibleness and Spesicity Average (SSA) -mittarin 79 %, mikä tekee siitä yhden aikansa älykkäimmistä chatboteista.
Meena-koodi on saatavilla GitHubista.
RoBERTa Facebookilta
RoBERTa (Robustly Optimized BERT Pretraining Approach) on toinen edistynyt versio alkuperäisestä BERT:stä, jonka Facebook ilmoitti heinäkuussa 2019.
Facebook loi tämän NLP-mallin suuremman tietolähteen esikoulutuksen mallina. RoBERTa käyttää 76 Gt:n tietojoukona CommonCrawlia (CC-News), joka sisältää 63 miljoonaa englanninkielistä uutisartikkelia, jotka on luotu syyskuun 2016 ja helmikuun 2019 välisenä aikana. Vertailun vuoksi, alkuperäinen BERT käyttää 16 Gt dataa englanninkielisten Wikipedian ja BookCorpusin tietojoukkojen välillä Facebookin mukaan.
Silimar XLNetille, RoBERTa voitti BERTin vertailutietojoukossa Facebookin tutkimuksen mukaan. Näiden tulosten saamiseksi yritys ei vain käyttänyt suurempaa tietolähdettä, vaan myös esikouluttanut malliaan pidemmän aikaa.
Facebook teki RoBERTasta avoimen lähdekoodin syyskuussa 2019, ja sen koodi on saatavilla GitHubissa yhteisökokeilua varten.
VentureBeat mainitsi myös GPT-2:n tuona aikana nousevien tekoälyjärjestelmien joukossa.
Googlen XLNet
XLNET on muuntajapohjainen autoregressiivinen kielimalli, jonka on kehittänyt Google Brainin ja Carnegie Mellonin yliopiston tutkijoiden ryhmä. Malli on pohjimmiltaan edistyneempi BERT, ja se esiteltiin ensimmäisen kerran kesäkuussa 2019. Ryhmä havaitsi XLNetin olevan vähintään 16 % tehokkaampi kuin alkuperäinen BERT, joka julkistettiin vuonna 2018, ja se pystyi päihittämään BERTin 20:n testissä. NLP-tehtävät.
Kun sekä XLNet että BERT käyttävät “naamioituja” tunnuksia piilotetun tekstin ennustamiseen, XLNet parantaa tehokkuutta nopeuttamalla prosessin ennakoivaa osaa. Esimerkiksi Amazon Alexan datatieteilijä Aishwarya Srinivasan selitti, että XLNet pystyy tunnistamaan sanan “uusi” liittyvän termiin “on kaupunki”, ennen kuin ennustaa termin “York” liittyvän myös tähän termiin. Sillä välin BERT:n on tunnistettava sanat “New” ja “York” erikseen ja yhdistettävä ne sitten esimerkiksi termiin “on kaupunki”.
Erityisesti GPT ja GPT-2 mainitaan myös tässä selityksessä vuodelta 2019 muina esimerkkeinä autoregressiivisistä kielimalleista.
XLNet-koodi ja esikoulutetut mallit ovat saatavilla GitHubissa. Malli on tunnettu NLP-tutkijayhteisössä.
Microsoft Researchin DialoGPT
DialoGPT (Dialogue Generative Pre-trained Transformer) on autoregressiivinen kielimalli, jonka Microsoft Research esitteli marraskuussa 2019. Malli oli samankaltainen kuin GPT-2, joten se oli esiopetettu synnyttämään ihmisen kaltaista keskustelua. Sen ensisijainen tietolähde oli kuitenkin 147 miljoonaa Reddit-säikeistä kaavittua monikäänteistä dialogia.
HumanFirstin pääevankelista Cobus Greyling on pannut merkille onnistuneensa ottamalla käyttöön DialoGPT:n Telegram-viestipalveluun, jotta malli eläisi chatbotina. Hän lisäsi, että Amazon Web Services ja Amazon SageMaker voi auttaa koodin hienosäädössä.
DialoGPT-koodi on saatavilla GitHubissa.
ALBERT Googlelta
ALBERT (A Lite BERT) on typistetty versio alkuperäisestä BERT:stä, ja Google kehitti sen joulukuussa 2019.
ALBERTilla Google rajoitti mallissa sallittujen parametrien määrää ottamalla käyttöön parametreja “piilotetun kerroksen upotuksilla”.
Tämä paransi paitsi BERT-mallia myös XLNetissä ja RoBERTassa, koska ALBERTia voidaan kouluttaa kahdessa uudemmassa mallissa käytettyjen samojen laajempien tietojoukkojen suhteen pienemmistä parametreistä kiinni pitäen. Pohjimmiltaan ALBERT toimii vain toimintojensa edellyttämien parametrien kanssa, mikä lisäsi suorituskykyä ja tarkkuutta. Google tarkensi, että se havaitsi ALBERTin ylittävän BERT-arvon 12 NLP-vertailussa, mukaan lukien SAT-tyyppinen luetun ymmärtämisen vertailuarvo.
Vaikka GPT:tä ei mainita nimellä, se sisältyy Googlen tutkimusblogin ALBERTin kuviin.
Google julkaisi ALBERTin avoimena lähdekoodina tammikuussa 2020, ja se otettiin käyttöön Googlen TensorFlow’n päälle. Koodi on saatavilla GitHubista.
Googlen T5
T5 (Text-to-Text Transferer) on Googlen vuonna 2019 julkaisema NLP-malli, joka on lainattu useista aikaisemmista malleista, mukaan lukien GPT, BERT, XLNet, RoBERTa ja ALBERT. Se lisää uuden ja ainutlaatuisen tietojoukon nimeltä Colossal Clean Crawled Corpus (C4), jonka avulla muuntaja voi tuottaa laadukkaampia ja kontekstuaalisia tuloksia kuin muut tietojoukot verrattuna XLNetissä käytettyihin Common Crawl -verkkokaappauksiin. T5-esikoulutus johti chatbot-sovellusten luomiseen, mukaan lukien InferKit Talk To Transformer ja AI Dungeon -peli. Tekstigeneraattorit muistuttavat ChatGPT:tä siinä mielessä, että niiden avulla voit luoda realistisia keskusteluja sen perusteella, mitä tekoäly luo ensimmäisten kehotteiden tai kyselyjen jälkeen. T5-koodi on saatavilla GitHubissa.
Salesforcen CTRL
Salesforcen CTRL (Computational Trust and Reasoning Layer) oli yksi suurimmista julkisesti julkaistuista kielimalleista, kun Salesforce julkisti sen syyskuussa 2019. 1,6 miljardin parametrin kielimallilla voidaan analysoida kerralla suuria tekstiosioita, kuten verkkosivuihin liittyviä. Joitakin mahdollisia käytännön käyttötapoja ovat yhdistäminen arvosteluihin, arvioihin ja attribuutteihin. CTRL-kielimalli voi erottaa tietyn kyselyn tarkoituksen välimerkkiin asti. Salesforce huomautti, että malli voi havaita eron “Maailman lämpeneminen on valhe”. epäsuosittu mielipide ja “Maailman lämpeneminen on valhetta” salaliittoteoriana johtuen aikakauden eroista lauseissa ja laatia vastaavat Reddit-säikeet kullekin. CTRL viittaa jopa 140 Gt:n tietoihin, jotka on saatu esiopetukseensa lähteistä, mukaan lukien Wikipedia, Project Gutenberg, Amazon-arvostelut ja Reddit. Se viittaa myös useisiin kansainvälisiin uutis-, tieto- ja triviaresursseihin. CTRL-koodi on saatavilla GitHubissa.
Googlen GShard
GShard on jättimäinen kielenkäännösmalli, jonka Google esitteli kesäkuussa 2020 hermoverkkojen skaalaustarkoituksiin. Malli sisältää 600 miljardia parametria, mikä mahdollistaa suuria tietojoukkoja kerralla. GShard on erityisen taitava kielten kääntämisessä ja on koulutettu kääntämään 100 kieltä englanniksi neljässä päivässä.
Facebook AI Researchin Blender
Blender on avoimen lähdekoodin chatbot, jonka Facebook AI Research esitteli huhtikuussa 2020. Chatbotin on todettu parantaneen keskustelutaitoja kilpailijamalleihin verrattuna, sillä se pystyy tarjoamaan kiinnostavia puheenaiheita, kuuntelemaan ja osoittamaan ymmärrystä kumppaninsa panoksesta sekä esittelemään empatiaa ja persoonallisuutta.
Blenderia on verrattu Googlen Meena-chatbotiin, jota on puolestaan verrattu OpenAI:n GPT-2:een.
Blender-koodi on saatavilla Parl.ai:sta.
Googlen Pegasus
Pegasus on luonnollisen kielen käsittelymalli, jonka Google esitteli joulukuussa 2019. Pegasus voidaan kouluttaa luomaan yhteenvetoja, ja muiden mallien, kuten BERT, GPT-2, RoBERTa, XLNet, ALBERT ja T5, tapaan se voi olla hieno viritetty tiettyihin tehtäviin. Pegasuksen tehokkuutta uutisten, tieteen, tarinoiden, ohjeiden, sähköpostien, patenttien ja lakiesityksen tekemisessä on testattu verrattuna ihmisiin.
Pegasus-koodi on saatavilla GitHubissa.