Accelerator AI

De la Wikipedia, enciclopedia liberă.
Salt la navigare Salt la căutare

Un accelerator AI (sau, de asemenea, NPU , Neural Processing Unit [1] ) este o clasă de microprocesoare concepute pentru a oferi accelerare hardware rețelelor neuronale artificiale , viziune automată și algoritmi de învățare automată pentru robotică , Internetul obiectelor și alte aplicații bazate pe utilizare de date.

Aplicațiile posibile pentru astfel de dispozitive includ mașini cu conducere automată , aeronave pilotate de la distanță , diagnosticare medicală , procesare a limbajului natural și traducere automată .

Istorie

În computere, procesoarele sunt adesea asociate cu acceleratoare hardware pentru a îndeplini mai bine anumite funcții, inclusiv plăci video și plăci de sunet . Odată cu creșterea activităților legate de învățarea profundă și inteligența artificială , au fost dezvoltate unități hardware specializate pentru a accelera performanța acestor activități.

Evoluții timpurii

Deja la începutul anilor '90 procesoarele digitale de semnal au fost utilizate ca acceleratoare de rețea neuronală pentru software-ul de recunoaștere optică a caracterelor și în acei ani au existat și încercări de a utiliza acceleratoare bazate pe FPGA .

Calcul eterogen

Calculul eterogen a dat loc inserării mai multor procesoare într-un singur sistem, fiecare dintre acestea fiind specializat pentru o funcție specifică. Arhitecturile, cum ar fi procesoarele de celule, au introdus unele caracteristici tipice acceleratoarelor AI, inclusiv arhitectura fluxului de date . Ulterior, aceleași procesoare de celule au fost utilizate pentru AI.

Utilizarea GPU-urilor

GPU-urile sunt dispozitive hardware specializate în manipularea imaginilor. Deoarece rețelele neuronale și manipularea imaginilor împărtășesc aceeași bază matematică, GPU-urile sunt frecvent utilizate pentru aplicații de învățare automată . Din acest motiv, producătorii de GPU au început să încorporeze hardware specific pentru rețelele neuronale, cum ar fi nucleele tensoriale .

Utilizarea FPGA-urilor

Cadrele de învățare profundă sunt în continuă evoluție și acest lucru face dificilă proiectarea hardware-ului specific. Dispozitivele reconfigurabile precum Field Programmable Gate Arrays (FPGA) simplifică gestionarea hardware-ului și software-ului în evoluție.

Exemple

Cipuri specifice

Google a dezvoltat un accelerator numit unitatea de procesare a tensorului special concepută pentru cadrul său TensorFlow , care este utilizat pe scară largă pentru rețelele neuronale convoluționale . [2]

Intel a dezvoltat Nervana NNP, un cip proiectat cu o arhitectură de învățare profundă. [3]

GPU

Linia de GPU-uri Tesla de la NVIDIA are caracteristici pentru inteligență artificială. [4]

AMD produce linia de GPU-uri Radeon Instinct orientate special către învățarea profundă. [5]

Coprocesoare

SoC-urile Apple A11 Bionic (și succesorii acestuia) prezintă un accelerator AI numit Neural Engine. [6]

Microprocesorul Qualcomm Snapdragon 845 conține un nucleu pentru procesarea AI. [7]

Un accelerator bazat pe rețea neuronală este, de asemenea, prezent în procesatoarele Kirin 970 [8] și 980 [9] ale HiSilicon .

În ianuarie 2018, CEVA a lansat o familie de patru microprocesoare de inteligență artificială numite NeuPro. [10]

Notă

Elemente conexe

Informatică Portal IT : accesați intrările Wikipedia care se ocupă cu IT