Gekissimo.net - Opi ansaitsemaan rahaa webilläsi Internetissä!

AI for Good: Luomme vastuullisia ja eettisiä ratkaisuja häiriöaikoina

Seuraava artikkeli auttaa sinua: AI for Good: Luomme vastuullisia ja eettisiä ratkaisuja häiriöaikoina

Chandramauli Chaudhuri johtaa tekoäly- ja koneoppimisaloitteita Fractalin Tech Media & Entertainment -käytännössä ja työskentelee joidenkin johtavien globaalien yritysten vanhempien sidosryhmien kanssa. Sen lisäksi, että hän on mukana tekoälytutkimuksessa, kykyjen parantamisessa ja ratkaisujen käyttöönotossa, hän tekee myös yhteistyötä World Economic Forumin johtajien, akateemikkojen ja poliittisten päättäjien kanssa aktiivisena jäsenenä IEEE:n maailmanlaajuisessa autonomisten ja älykkäiden järjestelmien etiikkaa käsittelevässä aloitteessa. Hän on myös osa Planet Positive 2030 -tapahtumaa, joka on rinnakkainen IEEE Standards Association -aloite, joka inspiroi politiikan luomista ja ajaa pragmaattisia muutoksia kestävän tulevaisuuden puolesta.

Analytics India Magazine haastatteli Chandramaulia saadakseen näkemyksiä eettisten ja vastuullisten tekoälyratkaisujen suunnittelusta.

TAVOITE: Miksi nykymaailmassa on tärkeää, että tekoälyalustoilla tai -palveluilla on vastuullisuus ja eettisyys?

Chandramauli: Tekoälyn alalla on viime aikoina tapahtunut ennennäkemätöntä edistystä. Muutaman viime kuukauden aikana ratkaisut, kuten ChatGPT, Bard, CICERO, Midjourney ja muutama muu, ovat valloittaneet niin tutkijoiden kuin käyttäjienkin mielikuvituksen. Tällaisten kehityshankkeiden ja niiden mullistavien sovellusten potentiaali ansaitsee eteenpäin katsovia, vaalivia ja jatkuvia investointeja. Tämä ei kuitenkaan saa jättää meitä täysin tietämättömiksi sen mahdollisista riskeistä tai haitallisista vaikutuksista yhteiskuntaamme. Tekoälyn kaltaisen vallankumouksellisen teknologian käyttäjinä, harjoittajina ja kehittäjinä on yhteisen edun mukaista pohtia, kuinka ratkaisumme voivat vaikuttaa elämämme eri puoliin, mukaan lukien yksityisyyteen, turvallisuuteen ja yleiseen hyvinvointiin. Arvioi ja arvioi sen pitkän aikavälin vaikutuksia talouteen, yhteiskuntaan ja ympäristöön.

On ymmärrettävää, että monet näistä näkökohdista ovat edelleen epäselviä ja vaativat lisätutkimusta ja arviointia. Mutta vahva sitoutuminen eettiseen ja vastuulliseen innovaatioon heti alusta alkaen voi auttaa luomaan kriittisiä suojakaiteita, jotka estävät negatiiviset seuraukset tulevaisuudessa – vähentävät ennakkoluuloja, edistävät sosiaalista oikeudenmukaisuutta, ympäristön kestävyyttä ja itsemääräämisoikeutta yksilötasoilla. Päätavoitteena on olla tietoinen ja valppaana turvautumatta pessimismiin tai sivuuttamatta tällaisen tieteellisen innovaation merkitystä. Kaikesta lupauksestaan ​​huolimatta meidän on ymmärrettävä, että tekoälyjärjestelmät voivat todella menestyä vain silloin, kun ne on suunniteltu palvelemaan suurempaa tarkoitusta – ihmiskeskeisyyttä ja globaalia hyvinvointia. Se on meidän puoleltamme epäonnistuminen, jos tekoälyjärjestelmät rakennetaan eristyksissä vain itseään palveleviksi työkaluiksi lyhyen aikavälin tavoitteiden saavuttamiseksi valitulle edunsaajille. Tästä näkökulmasta kokonaisvaltaisten eettisten ja vastuullisten puitteiden määrittäminen voi auttaa meitä tunnistamaan ja ylläpitämään välittömien tarpeiden ja pitkän aikavälin tarkoitusten välistä hienoa tasapainoa ilman, että palaamme äärimmäisiin ja mahdollisesti epäkäytännöllisiin ideoihin, kuten tekoälyn kehittämisen kieltoon.

🔥 Empfohlen:  Mikä Quickstep-sovellus on? – Täydellinen arvostelu

TAVOITE: Mitkä ovat parhaat käytännöt eettisen yhdenmukaistamisen ja vastuullisuuden mahdollistamiseksi tekoälyratkaisuissa eri organisaatioissa ja projektien elinkaaressa?

Chandramauli: Tekoälyjärjestelmien vastuullisuuden, selitettävyyden ja omistajuuden selkeä määritteleminen on usein vaikein ja kriittisin askel. Se tarkoittaa vastausten saamista joihinkin vaikeisiin ja perustavanlaatuisiin kysymyksiin – miksi ratkaisumme suosittelee tuloksia, joita se tekee, miten se päätyy näihin suosituksiin, kuka on vastuussa ratkaisun mahdollisesti aiheuttamista haitallisista toimista ja mitä se vaatii, niin haitallisia tuloksia?

Organisaatioille, jotka investoivat uuden tekoälyteknologian kehittämiseen, se alkaa ylhäältä. Hyviä lähtökohtia voisivat olla dynaamisen ja monipuolisen työkulttuurin luominen, kokeilu- ja oppimisajattelun sisällyttäminen sekä inklusiivisuuden ja saavutettavuuden ohjeiden määritteleminen. Kun nämä pilarit ovat vakiintuneet, muut loppu- ja projektitason parhaat käytännöt, kuten tietojen ja mallien hallinta, ratkaisujen läpinäkyvyys, käytettävyyden testaus, käyttöönoton jälkeinen seuranta ja seuranta jne., ovat paljon helpompia ottaa käyttöön. Vanhemmilla johtajilla ja johtajilla on velvollisuus näyttää oikeat esimerkit yritystasolla ja varmistaa, että jokainen tällaisten järjestelmien rakentamiseen osallistuva henkilö on koulutettu, koulutettu ja motivoitunut priorisoimaan tällaiset näkökohdat.

TAVOITE: Miten tekoälyratkaisujen suunnittelusta ja kehittämisestä voidaan tehdä osallistavampaa ja monien eri sidosryhmien ja käyttäjien saatavilla?

Chandramauli: Kattava ja helppokäyttöinen lähestymistapa tekoälyyn tarkoittaa sen varmistamista, että sen sovellusten edut ovat kaikkien saatavilla taustasta tai kyvyistä riippumatta. Monet tekoälyorganisaatiot pyrkivät tuottamaan tuotteita ja palveluita, jotka ovat osallisia, vastuullisia ja eettisiä – aluksi ne näyttävät teoriassa hyviltä, ​​mutta muuttuvat varsin haastaviksi todellisen käyttöönoton suhteen. Tämä johtuu siitä, että se vaatii perustavanlaatuista ajattelutavan ja ajatteluprosessin muutosta.

Avain on käyttäjälähtöisyydessä. Meidän on ajateltava algoritmien lisäksi ja oltava tilivelvollisia niille, joiden elämään ratkaisumme vaikuttavat suoraan tai epäsuorasti. Loppujen lopuksi meidän on muistettava, että tekoäly on vain keino palvella kuluttajia, ei lopputavoite tai menestys sinänsä.

🔥 Empfohlen:  Art Martori D'Andre Good: Yhteisöjen kohottaminen Urban Eatzin avulla Lue artikkeli

Organisaatiotasolla se edellyttää useiden keskeisten päätösten uudelleen harkitsemista koko prosessissa ja taaksepäin päätöksenteon mahdollistamista – kerättävät tiedot, suoritettava analyysi, käytettävät mallit, suositeltavat tulokset, testit käytettäväksi ja niin edelleen. Laajemmasta näkökulmasta katsottuna se lisää tarvetta lisätä tutkijoiden, hallitusten ja yritysten välistä yhteistyötä ja avoimuutta. Tavoitteena tulisi olla säännellä tuotteiden suunnittelua ja kehitystä niiden turvallisuuden lisäämiseksi hidastamatta tekoälytutkimuksen ja tiedon jakamisen edistymistä.

Chandramauli: Se on hieno kysymys. Yhteiskunnallisesta näkökulmasta aiheet, kuten tiede, teknologia, julkinen politiikka, taloustiede jne., eivät ole todella riippumattomia toisistaan. Nämä kaikki ovat pohjimmiltaan sidoksissa toisiinsa määrittelemään yhteisöllisen rakenteen, jossa elämme. Sama pätee tekoälyn ja lain väliseen suhteeseen – laki- ja sääntelyinfrastruktuuri ohjaa teknologian kehitystä ja päinvastoin.

Tarkastellaksemme tätä hieman tarkemmin – toisaalta olemme ottaneet käyttöön vastuulliset tekoälyjärjestelmät oikeudellisissa puitteissa. Tässä tekoäly voi auttaa luomaan uusia sääntöjä ja määräyksiä, parantamaan oikeusjärjestelmien toimivuutta ja tehokkuutta sekä parantamaan sen kykyä edistää ihmisten yleistä hyvinvointia. Ja toisaalta meillä on aktiivisia keskusteluja oikeudellisen aseman antamisesta tekoälyjärjestelmille. Tämä sisältää rajoitusten, oikeuksien ja velvoitteiden osoittamisen tällaisten järjestelmien kehittämiselle ja käyttöönotolle. Tärkeä näkökohta, joka on viime aikoina kerännyt paljon huomiota, on tekoälyn tuottaman sisällön omistus- ja tekijänoikeuslait. Erityisesti järjestelmät, kuten DALL-E, ChatGPT jne., voivat joskus sulkea pois lainaukset tai viittaaminen alkuperäisiin lähteisiin. Tämä herättää luonnollisesti paljon kysymyksiä ja huolia teollis- ja tekijänoikeuksien loukkauksista suurissa yhteiskunnan osissa.

On sanomattakin selvää, että hyvin määriteltyjen oikeudellisten puitteiden luominen tällaisten arkaluonteisten ja kriittisten aiheiden käsittelemiseksi on vielä lapsenkengissä. Mutta ajan kanssa ja oikeilla aikeilla saamme toivottavasti kokea tulevaisuuden, jossa oikeusjärjestelmät ja tekoäly toimivat harmoniassa jalostaakseen, ratkaistakseen ja parantaakseen monia tällaisia ​​moraalisia ongelmia. Euroopan komission vuonna 2019 ja 2021 ehdottama “Ethics Guidelines for Trustworthy AI” ja sitä seuraava “Artificial Intelligence Act” sekä useat IEEE:n kehittämät standardointiohjelmat ovat merkittäviä virstanpylväitä tässä pyrkimyksessä.

🔥 Empfohlen:  Pienyritysopas Amazon Prime -päivään valmistautumiseen

Chandramauli: Tämä on erityisen ajankohtainen aihe, kun otetaan huomioon viimeaikainen kehitys. Mutta ennen kuin mennään eettisiin näkökohtiin, on tärkeää ensin ymmärtää, mitä Generatiiviset esikoulutetut muuntajat tai GPT:t todella ovat.

ChatGPT:n ja viime aikoina GPT4:n kaltaiset ratkaisut on rakennettu massiivisten suurten kielimallien päälle eli Deep Learning -arkkitehtuureille, jotka käsittävät miljardeja tai mahdollisesti jopa biljoonia parametreja, jotka on koulutettu massiiviseen tekstidataan tuottamaan ihmisen kaltaisia ​​keskustelutulosteita. Vaikka tulokset ovat poikkeuksellisen luovia ja kunnioitusta herättäviä, se tekee tällaisista järjestelmistä myös lähes täysin mustan laatikon konepellin alla, mikä johtaa huoleen tuottamiensa tietojen jäljitettävyydestä, tarkkuudesta ja luotettavuudesta. Näiden mallien pätevyyden ja kaunopuheisuuden kasvaessa niitä voidaan helposti käyttää salaliittoteorioiden levittämiseen, myrkyllisyyden tuottamiseen ja valheiden valmistamiseen, jos niitä ei säännellä.

Lisäksi, koska tällaiset tekniikat saavat laajaa suosiota ja pääsevät käsiksi arkaluonteisiin henkilötietoihin, se herättää kysymyksiä siitä, kuinka vastuullisesti käyttäjätietoja kerätään, säilytetään ja käytetään. Loppujen lopuksi kaikkialla, missä on arkaluonteisten tietojen massavarastoa, kyberturvallisuus ja yksityisyys ovat huolissaan. On reilua sanoa, että Generatiiviseen tekoälyyn ja vastaavaan teknologiaan investoivien yritysten olisi hyvä kiinnittää erityistä huomiota tällaisten palvelujen yleiseen luottamukseen, turvallisuuteen ja luotettavuuteen. Ilman näitä toimenpiteitä se voi johtaa käyttäjien uskon menettämiseen, mikä saattaa vahingoittaa tekoälyn tavoitteita ja mahdollisuuksia.