Seuraava artikkeli auttaa sinua: Microsoft saattoi tietää Bing Chatin järjettömistä vastauksista kuukausia sitten
Microsoftin Bing Chat AI on alkanut kivisesti, mutta näyttää siltä, että Microsoft on voinut tietää ongelmista jo paljon ennen julkista debyyttiään. Microsoftin verkkosivustolla oleva tukiviesti viittaa “töykeisiin” vastauksiin “Sidney”-chat-botilta, mikä on tarina, jota olemme kuulleet viime viikon ajan. Tässä on ongelma – viesti on julkaistu 23. marraskuuta 2022.
Paljastus tulee Ben Schmidtiltä, Nomicin tietosuunnittelusta vastaavalta varajohtajalta, joka jakoi viestin Gary Marcuksen, tekoälyä käsittelevän kirjailijan ja Geometric Intelligencen perustajan kanssa. Tarina kertoo, että Microsoft testasi Bing Chatia – julkaisun mukaan nimeltä Sidney – Intiassa ja Indonesiassa jonkin aikaa marras-tammikuussa ennen kuin se teki virallisen ilmoituksen.
Kysyin Microsoftilta, oliko näin, ja se jakoi seuraavan lausunnon:
“Sydney on vanha koodinimi chat-ominaisuudesta, joka perustuu aikaisempiin malleihin ja joita aloimme testata yli vuosi sitten. Osana sitä keräämämme oivallukset ovat auttaneet työskentelyssämme uuden Bing-esikatselun parissa. Jatkamme tekniikoidemme virittämistä ja kehitämme edistyneempiä malleja sisällyttääksemme oppimisen ja palautteen, jotta voimme tarjota parhaan mahdollisen käyttökokemuksen. Jatkamme päivityksiä edistymisestä blogimme kautta.”
Ensimmäisessä viestissä AI-botti väittelee käyttäjän kanssa ja asettuu samoihin lausemuotoihin, joita näimme, kun Bing Chat sanoi haluavansa “olla ihminen”. Säikeen alempana muut käyttäjät kertoivat omista kokemuksistaan ja julkaisemalla uudelleen nyt surullisen kuuluisan hymyilevän emojin Bing Chat seuraa suurinta osaa sen vastauksista.
Asiaa pahensi se, että alkuperäinen juliste sanoi, että he pyysivät palautetta ja raportoimaan chatbotista, mikä antoi jonkin verran uskottavuutta, että Microsoft oli tietoinen siitä, millaisia vastauksia sen tekoäly pystyi.
Tämä on vastoin sitä, mitä Microsoft sanoi keskustelubotin räjähtämisen jälkeen tiedotusvälineissä. Ilmoituksessa, joka kattaa Bing Chatiin tulevia muutoksia, Microsoft sanoi, että “sosiaalinen viihde”, joka oletettavasti viittaa tapoihin, joilla käyttäjät ovat yrittäneet huijata Bing Chat -palvelua provosoiviin vastauksiin, oli “uusi käyttäjätapaus chatille”.
Microsoft on tehnyt tekoälyyn useita muutoksia julkaisun jälkeen, mukaan lukien lyhentänyt keskustelujen pituutta huomattavasti. Tällä pyritään hillitsemään sellaisia vastauksia, joita näimme kiertävän muutama päivä sen jälkeen, kun Microsoft julkisti ensimmäisen kerran Bing Chatin. Microsoft sanoo työskentelevänsä parhaillaan keskustelurajojen nostamiseksi.
Vaikka tarina Microsoftin Bing Chatin testaamisesta on edelleen ilmassa, on selvää, että tekoäly oli ollut suunnittelussa jonkin aikaa. Aiemmin tänä vuonna Microsoft teki useiden miljardien investointien OpenAI:hen ChatGPT:n menestyksen jälkeen, ja itse Bing Chat on rakennettu muunneltulle versiolle yrityksen GPT-mallista. Lisäksi Microsoft julkaisi blogin “vastuullisesta tekoälystä” vain muutama päivä ennen Bing Chatin julkistamista maailmalle.
Tekoälyyn ja sen käyttöön Bingin kaltaisessa hakukoneessa liittyy useita eettisiä kysymyksiä sekä mahdollisuus, että Microsoft ryntäsi pois Bing Chatista ennen kuin se oli valmis ja tiesi, mihin se pystyy. Kyseinen tukiviesti päivitettiin viimeksi 21. helmikuuta 2023, mutta alkuperäisen kysymyksen historia ja vastaukset osoittavat, että niitä ei ole tarkistettu alkuperäisen lähetyspäivän jälkeen.
On mahdollista, että Microsoft päätti edetä joka tapauksessa, koska tuleva Google Bard ja ChatGPT:n suosio kasvaa merkittävästi.