Gekissimo.net - Opi ansaitsemaan rahaa webilläsi Internetissä!

Onko GPT-4 Powered Bing Chat edelleen hullu?

Seuraava artikkeli auttaa sinua: Onko GPT-4 Powered Bing Chat edelleen hullu?

Viisi viikkoa sitten Microsoft julkaisi Bing Chatin väittäen, että se käyttää tekoälymallia, joka on tehokkaampi kuin ChatGPT ja GPT 3.5 yhteensä. GPT-4:n julkaisun myötä Microsoft integroi sen nopeasti Bing Chatiin jättäen mallin vanhemman, “varhaisen version” taakseen.

Tämä saattaa olla parempaan suuntaan, sillä edellinen malli oli erittäin altis hallusinaatioille ja hälyttäville lausumille, kuten väittäen sen olevan tunteva. Uuden mallin kohdalla kysymys on edelleen: Voiko GPT-4:n vähentynyt taipumus aiheuttaa hallusinaatioita kesyttää surullisen kuuluisan? Sydney?

Tuore maalikerros

Saksalaisen Microsoftin teknologiajohtajan kommenttien jälkeen GPT-4:n integroinnista Bing Chatiin näyttää siltä, ​​että ohjelmistojätti ja OpenAI saivat vihdoin toimensa. Itse asiassa Bing Chatiin kirjautuminen näyttää joukon uusia ominaisuuksia, jotka perustuvat täysin uuteen GPT-4:ään, jonka Microsoft on julkaissut viime viikolla.

Ensimmäinen asia, joka erottuu uudessa Bingissä, on sulava käyttöliittymä lisäominaisuuksineen. Heti kun käyttäjä alkaa olla vuorovaikutuksessa alustan kanssa, hän voi valita kolmen keskustelutyylin välillä. Näitä tyylejä kutsutaan nimellä ‘luova’, ‘tasapainoinen’ja ‘tarkka’– paitsi muuttaa chatbotin värimaailmaa, myös tarjota eroja vastauksissa. Esimerkiksi sama kehote “Kerro minulle Bangaloren historiasta” sisälsi kolme hyvin erilaista vastausta.

Bing Chatin antamat erilaiset vastaukset keskustelutyyleistä riippuen

Vaikka “tarkka” vaihtoehto antaa lyhyen ja tarkan vastauksen kysymyksiin, kuten Wikipediasta löytyy, “luova” vaihtoehto tarjoaa koulun esseetason vastauksen, jossa on laillisia lähteitä, kuten Britannica. “Tasapainoinen” ominaisuus, kuten nimestä voi päätellä, löytää tasapainon näiden kahden välillä ja tarjoaa tietoa pitäen sanamäärän alhaisena.

Visuaalisia muutoksia lukuun ottamatta näyttää siltä, ​​​​että Bing Chat on parantunut antamaan vastauksia, etenkin mitä tulee kielioppiin ja syntaksiin.yksi GPT-4:n vaatimista parannuksista. Aiempi viiden kehotteen raja on nostettu 15:een, minkä jälkeen chatbot pyytää käyttäjää tyhjentämään keskustelun ja aloittamaan uuden.

🔥 Empfohlen:  Bryan Caplan Kuinka erottua kilpailijoistasi Google-haussa Lue artikkeli

Botti pystyi antamaan oikean vastauksen monimutkaiseen kehotteeseen, joka pyysi sitä tiivistämään Cinderella-juonen käyttämällä kirjaimilla alkavia sanoja aakkosjärjestyksessä. Vaikka botti aluksi kompastui, pieni korjaus auttoi sitä muotoilemaan oikean vastauksen, vaikkakin vähän kömpelösti.

Vastaa monimutkaiseen kehotteeseen korjauksilla.

Puuttuvat osat

Yksi GPT-4:n jännittävimmistä osista on se multimodaalinen luonne. Tämän ominaisuuden sanotaan olevan edelleen tutkimuksen esikatselussa turvallisuussyistä, joten se ei ole saatavilla myöskään Bing Chatissa. Tällä hetkellä chatbot kertoo käyttäjille, että se ei pysty käyttämään multimodaalisia ominaisuuksia ja että he eivät voi ladata kuvia Bing Chatiin.

Lisäksi botti näyttää olevan ehdollinen, jotta se ei paljasta mallin luonnetta, jolle se on rakennettu. Microsoft paljasti aiemmin, että Bing Chat toimii mallilla, jota he ovat kutsuneet nimellä “Prometheus”. Tämä malli, joka on nyt vahvistettu toimivaksi GPT-4:n kanssa, yhdistää Bingin indeksointi- ja sijoitustiedot LLM:n ja Bing Orchestrator -komponentin kanssa. Orchestrator kommunikoi GPT-komponentin ja Bing-indeksointikomponentin välillä johdonmukaisten vastausten saamiseksi. Viime kuussa Linkedin-blogissa Microsoft viittasi Prometheuksen GPT-komponenttiin “Seuraavan sukupolven GPT:ksi” ja mainitsi, että sitä käytetään vastausten luomiseen Bingin tuloksista.

Prometheus-lohkokaavio. Lähde: Microsoft

Tämä niin kutsuttu “Seuraavan sukupolven GPT” -komponentti näyttää olevan GPT-4. Tämä tarkoittaa, että GPT-4:n aikaisempi julkaisua edeltävä versio integroitiin Bing Chatiin, ja käyttäjäpalaute ruokkii nykyistä versiota, jota näemme tänään. Bing-tiimi kirjoitti blogissaan

“Juuri syy, miksi testaamme uutta Bingiä avoimesti rajoitetulla esikatselukustajajoukolla, on nimenomaan löytää nämä epätyypilliset käyttötapaukset, joista voimme oppia ja parantaa tuotetta.”

Jälkeenpäin katsottuna näyttää siltä, ​​​​että Bing-tiimi julkaisi GPT-4:n luontoon joukolla ehdollisia kehotteita, joita nyt kutsutaan nimellä “Sydney”. Kuitenkin, kun yhä useammat käyttäjät ottivat tuotteen käyttöön ja alkoivat käyttää sitä, tiimi pystyi toistamaan GPT-4-mallin edellistä versiota ja nostamaan sen vauhtiin.

Kun keskustelutyylejä ja rajoitettuja keskustelun käänteitä on lisätty asteittain, näyttää siltä, ​​että Bing-tiimin ponnistelut ovat tuottaneet tulosta tehdäkseen Bing Chatista turvallisen ja tehokkaan laajaa käyttöä varten. GPT-4:n ja multimodaalisten ominaisuuksien lisäämisen myötä Bing Chatista saattaa itse asiassa tulla yksi uudimmista GPT-4:n käyttötapauksista, joita olemme vielä nähneet, ja Sydneystä voi tulla pelkkä painajainen Bing-käyttäjien takakuvassa.