Accelerator AI
Un accelerator AI (sau, de asemenea, NPU , Neural Processing Unit [1] ) este o clasă de microprocesoare concepute pentru a oferi accelerare hardware rețelelor neuronale artificiale , viziune automată și algoritmi de învățare automată pentru robotică , Internetul obiectelor și alte aplicații bazate pe utilizare de date.
Aplicațiile posibile pentru astfel de dispozitive includ mașini cu conducere automată , aeronave pilotate de la distanță , diagnosticare medicală , procesare a limbajului natural și traducere automată .
Istorie
În computere, procesoarele sunt adesea asociate cu acceleratoare hardware pentru a îndeplini mai bine anumite funcții, inclusiv plăci video și plăci de sunet . Odată cu creșterea activităților legate de învățarea profundă și inteligența artificială , au fost dezvoltate unități hardware specializate pentru a accelera performanța acestor activități.
Evoluții timpurii
Deja la începutul anilor '90 procesoarele digitale de semnal au fost utilizate ca acceleratoare de rețea neuronală pentru software-ul de recunoaștere optică a caracterelor și în acei ani au existat și încercări de a utiliza acceleratoare bazate pe FPGA .
Calcul eterogen
Calculul eterogen a dat loc inserării mai multor procesoare într-un singur sistem, fiecare dintre acestea fiind specializat pentru o funcție specifică. Arhitecturile, cum ar fi procesoarele de celule, au introdus unele caracteristici tipice acceleratoarelor AI, inclusiv arhitectura fluxului de date . Ulterior, aceleași procesoare de celule au fost utilizate pentru AI.
Utilizarea GPU-urilor
GPU-urile sunt dispozitive hardware specializate în manipularea imaginilor. Deoarece rețelele neuronale și manipularea imaginilor împărtășesc aceeași bază matematică, GPU-urile sunt frecvent utilizate pentru aplicații de învățare automată . Din acest motiv, producătorii de GPU au început să încorporeze hardware specific pentru rețelele neuronale, cum ar fi nucleele tensoriale .
Utilizarea FPGA-urilor
Cadrele de învățare profundă sunt în continuă evoluție și acest lucru face dificilă proiectarea hardware-ului specific. Dispozitivele reconfigurabile precum Field Programmable Gate Arrays (FPGA) simplifică gestionarea hardware-ului și software-ului în evoluție.
Exemple
Cipuri specifice
Google a dezvoltat un accelerator numit unitatea de procesare a tensorului special concepută pentru cadrul său TensorFlow , care este utilizat pe scară largă pentru rețelele neuronale convoluționale . [2]
Intel a dezvoltat Nervana NNP, un cip proiectat cu o arhitectură de învățare profundă. [3]
GPU
Linia de GPU-uri Tesla de la NVIDIA are caracteristici pentru inteligență artificială. [4]
AMD produce linia de GPU-uri Radeon Instinct orientate special către învățarea profundă. [5]
Coprocesoare
SoC-urile Apple A11 Bionic (și succesorii acestuia) prezintă un accelerator AI numit Neural Engine. [6]
Microprocesorul Qualcomm Snapdragon 845 conține un nucleu pentru procesarea AI. [7]
Un accelerator bazat pe rețea neuronală este, de asemenea, prezent în procesatoarele Kirin 970 [8] și 980 [9] ale HiSilicon .
În ianuarie 2018, CEVA a lansat o familie de patru microprocesoare de inteligență artificială numite NeuPro. [10]
Notă
- ^ Ce sunt unitățile de procesare neuronală și la ce servesc , pe fastweb.it .
- ^ (RO) O privire aprofundată asupra primei unități de procesare a tensorilor (TPU) Google , pe cloud.google.com.
- ^ (EN) Procesoare de rețea neuronală Intel® Nervana ™ (NNP) Redefine AI Silicon , pe ai.intel.com.
- ^ NVIDIA Tesla , pe nvidia.it .
- ^ (EN) AMD introduce Radeon Instinct: Accelerating Machine Intelligence , pe amd.com.
- ^ Apple A12 Bionic , la apple.com .
- ^ (EN) Snapdragon 845 , pe qualcomm.com.
- ^ (RO) Informații cheie despre Huawei Kirin 970 , pe hisilicon.com.
- ^ Oficial Kirin 980: Primul SoC de 7nm din lume are un creier mai mult decât tine! , pe mobileworld.it .
- ^ (EN) CEVA NEUPRO , on ceva-dsp.com.