Seuraava artikkeli auttaa sinua: GPT4ALL – Henkilökohtainen chatGPT Suorita paikallisesti 1 napsautus ja asenna
GPT4All on kiehtova projekti, joka perustuu Llamaan, ja vaikka se ei ehkä ole kaupallisesti käyttökelpoinen, sen kanssa on hauska leikkiä. GPT4All on oppinut valtavasta kokoelmasta auttajavuorovaikutuksia, kuten sanapulmia, tarinoita, keskusteluja ja koodia. He jakoivat tiedonkeruuprosessin, koulutuskoodin ja lopullisten mallien yksityiskohdat kannustaakseen avointa tutkimusta ja tehdäkseen sen toistamisen helpoksi. Lisäksi mallin yksinkertaisempi versio, joten melkein kuka tahansa voi käyttää sitä tietokoneensa suorittimessa.
Kuvakaappaus tekijältä, GPT4ALL tekninen raportti
Onko GPT4All uusi henkilökohtainen ChatGPT? Vaikka se ei ehkä ole täysimittainen ChatGPT:n korvike, se tuo varmasti joitain jännittäviä toimintoja.
Tämä blogi tutkii GPT4All-projektia, avoimen lähdekoodin projektia, joka vie hienosäädön Alpacan ulkopuolelle, ja vertaa sitä ChatGPT:hen.
Johdatus GPT4All:iin: Mikä on tarjous?
GPT4All-tiimi loi raportin, jossa kerrottiin heidän prosessistaan. He käyttivät miljoonia GPT-3.5 Turbon luomia pikavastauksia, jotka saattavat olla OpenAI:n käyttöehtojen vastaisia. On mielenkiintoista nähdä, kuinka he rakensivat tietojoukonsa ja hienosääsivät mallia.
Nomic.ai: Projektin takana oleva yritys
Nomic.ai on GPT4Allin takana oleva yritys. Yksi heidän keskeisistä tuotteistaan on työkalu monien tekstikehotteiden visualisointiin. Tätä työkalua käytettiin suodattamaan vastaukset, jotka he saivat GPT-3.5 Turbo API:lta. He kokosivat tietojoukonsa käyttämällä erilaisia lähteitä, mukaan lukien CHIP-2-tietoaineisto, Stack Overflow -koodauskysymykset ja P3-tietojoukko. Ei niin hyvien vastausten suodattamisen jälkeen heillä oli noin 500 000 paria kehotteita ja jatkoja. Sitten he hienosääsivät Llama-mallia, jolloin tuloksena oli GPT4All.
GPT4All-asennus: Easy Peasy
Asennus oli helpoin. Heidän Github-ohjeet ovat hyvin määriteltyjä ja yksinkertaisia. Vaihtoehtoja on kaksi, paikallinen tai google-yhteistyö. Kokeilin molempia ja pystyin suorittamaan sen M1-macissa ja google collabissa muutamassa minuutissa.
Paikallinen asennus
- Lataa gpt4all-lora-quantized.bin-tiedosto Direct Linkistä.
- Kloonaa tämä arkisto, siirry keskusteluun ja aseta ladattu tiedosto sinne.
- Suorita käyttöjärjestelmällesi sopiva komento:
- M1 Mac/OSX: cd chat;./gpt4all-lora-quantized-OSX-m1
- Linux: cd chat;./gpt4all-lora-quantized-linux-x86
- Windows (PowerShell): cd chat;./gpt4all-lora-quantized-win64.exe
- Intel Mac/OSX: cd chat;./gpt4all-lora-quantized-OSX-intel
Google Colab
Google Collabin käyttäminen oli yhdellä napsautuksella, mutta suoritus on hidasta, koska se käyttää vain prosessoria. Suoritin kaksi koodilohkoa ja liitin. cd /content/gpt4all/chat;./gpt4all-lora-quantized-linux-x86
Kuvaaja, Google Collab GPT4ALL
GPT4All in Action: Kuinka se toimii?
Testaamalla GPT4Allia useilla kehotteilla käy selväksi, että malli on melko hyvä antamaan johdonmukaisia vastauksia.
Tekijän kaappaama, GPT4ALL toiminnassa
Kuitenkin, kun mallia testataan monimutkaisemmilla tehtävillä, kuten kirjoitettaessa täysimittaista artikkelia tai luotaessa funktio, joka tarkistaa, onko luku alkuluku, GPT4All epäonnistuu. On selvää, että vaikka GPT4All on lupaava malli, se ei ole aivan sama kuin ChatGPT tai GPT-4.
GPT4Kaikki tiedonkeruu
Tiimi keräsi noin miljoona pikavastaus-paria GPT-3.5-Turbo OpenAI API:n avulla 20. maaliskuuta ja 26. maaliskuuta 2023 välisenä aikana. He hyödynsivät kolmea julkisesti saatavilla olevaa tietojoukkoa kerätäkseen erilaisia kysymyksiä ja kehotteita: Raakadata:
- LAION OIG:n yhtenäinen chip2-alajoukko
- Kysymysten koodaus satunnaisella Stackoverflow-kysymysten alaotoksella
-
Ohje-viritys Bigscience/P3:n alinäytteellä
Tekijän kaappaama, Train RAW Data responses Kaappaa tekijä, Train RAW Data responses Tietojen valmistelun ja kuraoinnin aikana tutkijat poistivat esimerkkejä, joissa GPT-3.5-Turbo ei vastannut kehotteisiin ja tuotti virheellisen tulosteen. Puhdistuksen jälkeen tietojoukko sisälsi 806 199 korkealaatuista kehotteen sukupolviparia. Tiimi poisti koko Bigscience/P3-alijoukon alhaisen tuotosdiversiteetin vuoksi. Lopullinen tietojoukko koostui 437 605 nopean sukupolven parista.
Mallin koulutus ja uusittavuus
Tutkijat kouluttivat useita malleja, jotka oli hienosäädetty LLaMA 7B -esiintymästä (Touvron et al., 2023). He käyttivät LoRA:ta (Hu et al., 2021) kouluttaakseen alkuperäisen julkisen julkaisumallinsa 437 605 jälkikäsitellyn esimerkin perusteella neljän aikakauden aikana. Tiimi julkaisi kaikki tiedot, harjoituskoodit ja mallipainot toistettavuuden varmistamiseksi. Näiden mallien tuottaminen maksoi noin 800 dollaria GPU-kustannuksina ja 500 dollaria OpenAI API -kuluina. Harjoitetut LoRa-painot:
- gpt4all-lora (neljä täydellistä koulutusjaksoa): https://huggingface.co/nomic-ai/gpt4all-lora
-
gpt4all-lora-epoch-2 (kolme täyttä koulutusjaksoa) https://huggingface.co/nomic-ai/gpt4all-lora-epoch-2 Raakadata:
- Harjoitustiedot ilman P3:a
Explorer: https://atlas.nomic.ai/map/gpt4all%5Fdata%5Fclean%5Fwithout%5Fp3> -
Täysi tietojoukko P3:lla
Explorer: https://atlas.nomic.ai/map/gpt4all%5Fdata%5Fclean> Voit harjoitella ja luoda oman mallisi. Seuraa heidän dokumentaatiotaan saadaksesi lisätietoja. **Etsi Googlen yhteistyö kouluttaaksesi omaa henkilökohtaista ChatGPT:täsi.
Arviointi- ja käyttönäkökohdat
GPT4All arvioitiin käyttämällä Self-Instruct-paperin ihmisen arviointitietoja (Wang et al., 2022). Tulokset osoittivat, että tälle kerätylle tietojoukolle hienosäädetyt mallit osoittivat paljon vähemmän hämmennystä Self-Instruct-arvioinnissa kuin Alpaca. Vaikka arviointi ei ole tyhjentävä, se osoittaa GPT4Allin potentiaalin. Kirjoittajat julkaisivat dataa ja koulutuksen yksityiskohtia nopeuttaakseen avointa LLM-tutkimusta, erityisesti yhdenmukaistamisen ja tulkittavuuden aloilla. GPT4Kaikki mallipainot ja tiedot on tarkoitettu ja lisensoitu vain tutkimustarkoituksiin, kaupallinen käyttö on kielletty. Assistentin tiedot on kerätty OpenAI:n GPT-3.5-Turbosta, jonka käyttöehdot kieltävät OpenAI:n kanssa kaupallisesti kilpailevien mallien kehittämisen.
Tulevaisuuden tiekartta
Heidän GitHub-sivunsa mukaan tiekartta koostuu kolmesta päävaiheesta alkaen lyhyen aikavälin tavoitteista, joihin kuuluu GPTJ-pohjaisen GPT4All-mallin kouluttaminen laamajakeluongelmien ratkaisemiseksi ja parempien CPU- ja GPU-liitäntöjen kehittäminen mallille, jotka molemmat ovat käynnissä. . Suunnitelmiin kuuluu myös llama.cpp-sidosten integrointi, käyttäjäystävällisen keskustelukäyttöliittymän luominen ja käyttäjien lähettää chatteja tulevaa koulutusta varten, mutta näitä tehtäviä ei ole vielä aloitettu. Keskipitkällä aikavälillä painopiste siirtyy integroimaan GPT4All Atlasin kanssa asiakirjojen hakua varten (GPT4All estänyt GPTJ:hen perustuvan) ja Langchainin sekä yksinkertaisten mukautettujen koulutusskriptien kehittämiseen käyttäjämallien hienosäätöä varten. Lopuksi pitkän aikavälin tavoitteiden tavoitteena on antaa kenelle tahansa tarjota koulutusdataa tulevia GPT4All-julkaisuja varten Atlaksen avulla ja demokratisoida tekoäly, jälkimmäinen parhaillaan käynnissä.
Minun Takeaway
Vaikka GPT4All on hauska malli leikkimiseen, on tärkeää huomata, että se ei ole ChatGPT tai GPT-4. Se ei ehkä tarjoa samaa syvyyttä tai ominaisuuksia, mutta sitä voidaan silti hienosäätää tiettyihin tarkoituksiin. Jos avoimen lähdekoodin malli, kuten GPT4All, voitaisiin kouluttaa biljoonalla tunnuksella, saatamme nähdä malleja, jotka eivät ole riippuvaisia ChatGPT- tai GPT-4-sovellusliittymistä. Joten vaikka GPT4All ei ehkä olekaan toivomasi ChatGPT:n korvike, se on silti jännittävä projekti, joka esittelee avoimen lähdekoodin tekoälymallien potentiaalia. Niin mitä mieltä olet? Jätä kommentti, jotta Medium voi suositella sinulle lisää tällaista erinomaista sisältöä. Parasta artikkeleiden lukemisessa on selata alas kommenttiosioon ja löytää bonustietoja tai hauska kommentti. Joten, tule, herätetään AI-yhteisö!
Seuraa minua sosiaalisessa mediassa YouTube, Viserrysja Instagram.