Seuraava artikkeli auttaa sinua: Se on siinä! Intel® oneAPI mestarikurssi hermokompressorilla nopeuttaaksesi syvän oppimisen päättelyä
Intel® päätti Intel® Neural Compressorin oneAPI-mestarikurssinsa 13. toukokuuta 2022 IST:ssä klo 17.00. Mestarikurssilla oli lähes 200 osallistujaa.
Työpaja käsitteli useita Intelin® käynnistämiä aloitteita ja projekteja sekä syvällistä sukeltamista Intel® Optimization for TensorFlow -sovellukseen Intel-alustojen suorituskyvyn parantamiseksi. Intel® Optimization for TensorFlow on TensorFlown binäärijakelu Intel® oneAPI syvän hermoverkon (oneDNN) kirjastoprimitiivien kanssa.
Tämän lisäksi mestarikurssi antoi yleiskatsauksen oneAPI AI analytics toolkit, joka sisälsi ydintyökaluja ja kirjastoja korkean suorituskyvyn sovellusten kehittämiseen Intel® CPU:ille, GPU:ille ja FPGA:ille sekä valaisi Intelin® avoimen lähdekoodin, monialustainen suorituskykykirjasto oneDNN syväoppimissovelluksiin.
Istunnossa korostettiin myös Intel Neural Compressorin käytön tärkeyttä syvän oppimispäätelmän tehostamiseksi sekä käytännön demon, käyttötapausten, vertailuarvojen ja muiden antamisen ohella. Työpajan johti Kavita Aroor, Intelin Aasian ja Tyynenmeren ja Japanin kehittäjämarkkinointijohtaja; Aditya Sirvaiya, Intelin tekoälyohjelmistoratkaisujen insinööri; ja Zhang Jianyu (Neo), SATG AIA:n vanhempi tekoälyohjelmistoratkaisujen insinööri (SSE) Kiinassa.
Intel®:llä oli demo seuraavista aiheista:
- oneAPI AI Analytics Toolkit yleiskatsaus
- Johdatus Intel® Optimization for Tensorflow -sovellukseen
- Intel-optimoinnit Tensorflowille
- Intelin hermokompressori
- Käytännön demo esittelee käyttöä ja suorituskykyä DevCloudissa
Katso “Speed up deep learning inference with Intel® Neural Compressor” -mestarikurssin tallenne tästä.
Tärkeimmät kohokohdat
Valaisemalla Intelin® käynnistämiä aloitteita kehittäjien ekosysteemin kohottamiseksi, Intelin Aroor käsitteli DevMesh-projektien foorumia. Hän sanoi, että heillä on noin 2000-2500 projektia eri teknologioista, mukaan lukien tekoäly, pelikehitys, IoT ja HPC, joita kuratoivat Intelin ohjelmistokehittäjät ja opiskelijalähettiläsyhteisö.
Lisäksi hän sanoi, että kehittäjät voisivat luoda blogiartikkeleita, joissa he voivat vahvistaa työtään, projektejaan ja paljon muuta. Hän sanoi myös, että oneAPI-teknologian kumppaniohjelmalla on erillinen foorumi, jossa he voivat tehdä yhteistyötä Intelin kanssa vapauttaakseen oneAPI:n tehon. “Tänään meillä on noin 19-20 tällaista organisaatiota kymmenessä eri maassa”, lisäsi Aroor. Seuraavaksi hän puhui oneAPI-sertifioitujen ohjaajien ohjelmasta, jossa kehittäjistä voi tulla sertifioituja ohjaajia, tulla Intelin® puolestapuhujaksi ja tehdä läheistä yhteistyötä yrityksen kanssa.
Napsauta tätä ladataksesi Intel® oneAPI Toolkits aloittaaksesi.
Napsauta tätä luodaksesi Intel® DevCloud -tilin.
Tämän jälkeen Aditya antoi yleisölle nopean yleiskatsauksen oneAPI-analytiikkatyökalupakista, esittelemällä Intel® Optimization for TensorFlow -sovelluksen, ja sitten käytännönläheisen, esitellen DevCloudin käyttöä ja suorituskykyä.
Tämän jälkeen esiteltiin Intel Neural Compressor Hands-on kvantisointityökuormalla. Esittelyssä selitettiin päästä päähän -putkilinjaa TensorFlow-mallin kouluttamiseksi pienellä asiakastietojoukolla ja mallin nopeuttamiseksi Intel® Neural Compressorin kvantisoinnin perusteella. Tähän sisältyi Kerasin ja Intel Optimization for Tensorflow -mallin kouluttaminen, Intel® Neural Compressorin INT8-mallin hankkiminen sekä FP32- ja INT8-mallien suorituskyvyn vertailu samalla skriptillä.
(Lähde: Intel)
Napsauta tätä ladataksesi Intel® oneAPI Toolkits aloittaaksesi.
Napsauta tätä luodaksesi Intel® DevCloud -tilin.
Tapahtuman aikana Analytics India -lehti järjesti myös Lucky Draw -arvonta, jossa onnekkaat osallistujat voittivat 2000 INR arvoisen Amazon-kuponki työpajan lopussa.
Voittajat valittiin heidän sitoutumisensa Discordin kanssa koko työpajan ajan. <https://discord.gg/ycwqTP6>
- Sahil Chachra
- Raviteja Peri
- Prateek Modi
- Ramachandrareddy Gadi
- Sreyashi Bhattacharjee
- Aishwarya Gholse
- Anirban Malla
- Dhruv Kothiya
- Chirumamilla Pitchaia
- Shivaraj Karki
- Priyanka Patny
- Akanksha Srivastava
- Maaz Mohammed
- Mani Shekhar Gupta
Katso “Speed up deep learning inference with Intel® Neural Compressor” -mestarikurssin tallenne tästä.