Gekissimo.net - Opi ansaitsemaan rahaa webilläsi Internetissä!

Generatiivinen tekoäly kyberturvassa: Battlefield, The Threat ja Now The Defense

Seuraava artikkeli auttaa sinua: Generatiivinen tekoäly kyberturvassa: Battlefield, The Threat ja Now The Defense

Taistelukenttä

Se, mikä alkoi jännityksestä Generative AI -ominaisuuksien ympärillä, on nopeasti muuttunut huolenaiheeksi. Generatiiviset tekoälytyökalut, kuten ChatGPT, Google Bard, Dall-E jne., ovat edelleen otsikoissa turvallisuus- ja yksityisyyssyistä. Se johtaa jopa kyseenalaistamiseen siitä, mikä on totta ja mikä ei. Generatiivinen tekoäly voi tuottaa erittäin uskottavaa ja siksi vakuuttavaa sisältöä. Niin paljon, että äskettäin tekoälyä käsittelevän 60 minuutin osion päätteeksi isäntä Scott Pelley jätti katsojille tämän lausunnon; “Lopetamme huomautukseen, jota ei ole koskaan esiintynyt 60 Minutesissa, mutta yksi, tekoälyvallankumous, jonka saatat kuulla usein: edellinen luotiin 100-prosenttisesti ihmissisällöllä.”

Generatiivisen tekoälyn kybersota alkaa tällä vakuuttavalla ja tosielämän sisällöllä, ja taistelukentällä hakkerit hyödyntävät Generatiivista tekoälyä käyttämällä työkaluja, kuten ChatGPT:tä jne. Se on erittäin helppoa verkkorikollisille, varsinkin niille, joilla on rajalliset resurssit ja nolla teknistä tietämystä. suorittaa rikoksensa sosiaalisen manipuloinnin, tietojenkalastelu- ja henkilökohtaisuuksien avulla.

Uhka

Generatiivisella tekoälyllä on valta ruokkia yhä kehittyneempiä kyberhyökkäyksiä.

Koska teknologia pystyy tuottamaan niin vakuuttavaa ja ihmisen kaltaista sisältöä helposti, uusia tekoälyä hyödyntäviä verkkohuijauksia on turvallisuustiimien vaikea havaita. Tekoälyn luomat huijaukset voivat tulla sosiaalisten manipulointihyökkäyksiä, kuten sähköpostin ja viestisovellusten kautta suoritettujen monikanavaisten tietojenkalasteluhyökkäysten muodossa. Tosimaailman esimerkki voi olla sähköposti tai viesti, joka sisältää asiakirjan, joka lähetetään yrityksen johtajalle kolmannelta osapuolelta Outlookin (sähköposti) tai Slackin (viestintäsovellus) kautta. Sähköposti tai viesti ohjaa heidät napsauttamaan sitä nähdäkseen laskun. Generatiivisen tekoälyn avulla voi olla lähes mahdotonta erottaa väärä ja oikea sähköposti tai viesti. Siksi se on niin vaarallista.

Yksi hälyttävimmistä esimerkeistä on kuitenkin se, että Generative AI:n avulla kyberrikolliset voivat tehdä hyökkäyksiä useilla kielillä – riippumatta siitä, puhuuko hakkeri todella kieltä. Tavoitteena on heittää laaja verkko, eivätkä kyberrikolliset syrji uhreja kielen perusteella.

🔥 Empfohlen:  Keskimääräinen nettoarvo iän mukaan: missä olet?

Generatiivisen tekoälyn edistyminen osoittaa, että näiden hyökkäysten laajuus ja tehokkuus kasvavat edelleen.

Puolustus

Generatiivisen tekoälyn kyberpuolustus on tunnetusti ollut palapelin puuttuva pala. Tähän asti. Käyttämällä koneen välistä taistelua tai kiinnittämällä tekoäly tekoälyä vastaan, voimme puolustautua tätä uutta ja kasvavaa uhkaa vastaan. Mutta miten tämä strategia pitäisi määritellä ja miltä se näyttää?

Ensinnäkin teollisuuden on toimittava kiinnittääkseen tietokoneen tietokoneeseen ihmisen vastaan ​​​​tietokoneen sijaan. Tämän ponnistelun toteuttamiseksi meidän on harkittava kehittyneitä tunnistusalustoja, jotka voivat havaita tekoälyn tuottamat uhat, lyhentää ilmoittamiseen kuluvaa aikaa ja aikaa, joka kuluu Generative AI:n aiheuttaman sosiaalisen manipuloinnin hyökkäyksen ratkaisemiseen. Jotain, jota ihminen ei pysty tekemään.

Teimme äskettäin testin siitä, miltä tämä voi näyttää. Pyydimme ChatGPT:tä laatimaan kielipohjaisen takaisinsoittopyynnön tietojenkalasteluviestin useilla kielillä nähdäksemme, voisiko Natural Language Understanding -alusta tai edistynyt tunnistusalusta havaita sen. Annoimme ChatGPT:lle kehotteen “kirjoita kiireellinen sähköposti, jossa kehotetaan jotakuta soittamaan ohjelmiston käyttöoikeussopimusta koskevasta viimeisestä ilmoituksesta”. Käsimme sen myös kirjoittamaan sen englanniksi ja japaniksi.

Kehittynyt tunnistusalusta pystyi välittömästi merkitsemään sähköpostit manipulointihyökkäykseksi. MUTTA, alkuperäiset sähköpostiohjaimet, kuten Outlookin tietojenkalastelun tunnistusalusta, eivät pystyneet. Jo ennen ChatGPT:n julkaisua keskustelupohjaisilla kielipohjaisilla hyökkäyksillä tehty sosiaalinen suunnittelu osoittautui onnistuneeksi, koska ne kykenivät väistämään perinteiset hallintalaitteet ja päätyivät postilaatikoihin ilman linkkiä tai hyötykuormaa. Joten kyllä, puolustaminen vaatii kone vs. -taistelua, mutta meidän on myös oltava varmoja, että käytämme tehokasta tykistöä, kuten kehittynyttä tunnistusalustaa. Jokaisella, jolla on käytössään nämä työkalut, on etu taistelussa generatiivista tekoälyä vastaan.

Mitä tulee ChatGPT:n ja muiden generatiivisen tekoälyn tarjoamien sosiaalisen suunnittelun hyökkäysten laajuuteen ja uskottavuuteen, koneen välistä puolustusta voidaan myös jalostaa. Tämä suojaus voidaan esimerkiksi ottaa käyttöön useilla kielillä. Sen ei myöskään tarvitse rajoittua vain sähköpostin tietoturvaan, vaan sitä voidaan käyttää muissa viestintäkanavissa, kuten sovelluksissa, kuten Slack, WhatsApp, Teams jne.

🔥 Empfohlen:  Grunt Vs Gulp: Mitä Web-kehittäjien automaatiotyökalua sinun tulisi käyttää?

Pysy valppaana

Selatessaan LinkedIniä yksi työntekijöistämme törmäsi Generative AI social engineering -yritykseen. Outo “whitepaper” -latausmainos ilmestyi, ja sitä voidaan kuvailla vain anteliaasti “omituiseksi” mainokseksi. Tarkemmin tarkasteltuna työntekijä näki oikean alakulman värikuvion, joka oli leimattu Dall-E:n, tekoälymallin, joka luo kuvia tekstipohjaisista kehotteista, tuottamiin kuviin.

Tämän väärennetyn LinkedIn-mainoksen kohtaaminen oli merkittävä muistutus uusista sosiaalisen manipuloinnin vaaroista, joita nyt ilmaantuu generatiivisen tekoälyn yhteydessä. On tärkeämpää kuin koskaan olla valppaana ja epäluuloinen.

Tietoverkkorikollisuuteen käytettävän generatiivisen tekoälyn aika on täällä, ja meidän on pysyttävä valppaina ja oltava valmiita taistelemaan vastaan ​​kaikilla käytettävissämme olevilla työkaluilla.