Supercomputer

De la Wikipedia, enciclopedia liberă.
Salt la navigare Salt la căutare
Cray-1 , supercomputerul istoric care a fost cel mai puternic sistem din lume între 1976 și 1981

Supercomputerul (sau supercomputerul ) este un tip de sistem de procesare conceput pentru a obține o capacitate de procesare extrem de mare, dedicat efectuării de calcule matematice performante.

Istorie

Familiile de microprocesoare utilizate în supercomputerele prezente în clasamentul TOP500 în ultimii 15 ani. Se poate observa cu ușurință că, în ultimii ani, cele mai utilizate procesoare se bazează pe arhitectura X86, de asemenea folosită în mod obișnuit în computerele personale.

De obicei, se crede că supercomputerele sunt cele mai puternice computere de pe planetă, această clasificare include toate primele computere pornind de la motorul analitic Babbage prin diferitele modele de Zuse (primele computere funcționale) până la supercomputerele de astăzi.

Mulți experți IT, pe de altă parte, urmăresc supercomputerele până în anii cincizeci și în special la NORC produsă de IBM datorită soluțiilor particulare adoptate pentru a obține o mașină cu cele mai bune performanțe și, prin urmare, cu soluții tehnice diferite de cele utilizate pentru precedentele modele.

Termenul de supercomputere a fost folosit pentru prima dată de ziarul New York World în 1920 într-un articol care descria o mașină electromecanică construită de IBM pentru Universitatea Columbia

Între anii șaizeci și mijlocul anilor șaptezeci , compania CDC cu supercomputerele sale a fost cea mai importantă companie din sector. Pentru a obține performanțe de calcul ridicate, tehnicienii CDC au dezvoltat diverse soluții tehnologice, cum ar fi utilizarea procesoarelor specializate pentru diferite sarcini ( CDC 6600 ) utilizarea conductelor ( CDC 7600 ) și utilizarea procesoarelor vectoriale ( CDC STAR-100 ). Alegerile strategice ale CDC au amenințat cu falimentul companiei și unii tehnicieni nemulțumiți ai directorilor companiei au părăsit CDC pentru a încerca noi căi. Printre acestea, cel mai faimos a fost Seymour Cray, care cu Cray-1 a marcat o nouă cale pentru soluțiile tehnologice utilizate și pentru puterea de calcul ridicată dezvoltată.

De la mijlocul anilor 1970 până la sfârșitul anilor 1980 , Cray Research a fost lider în supercomputere. Cray a extins inovațiile utilizate în mașinile CDC, ducându-le la extrem și folosind soluții inovatoare, cum ar fi răcirea lichidului sau structurile turn în care să găzduiască cardurile cu unitățile de calcul pentru a reduce lungimea medie a conexiunilor.

În anii 1980, s-au născut multe companii care au dezvoltat sisteme de calcul performante. Aceste companii mici au concurat cu companii consacrate precum IBM sau Cray și le-au forțat să facă reduceri radicale de prețuri ale sistemului pentru a rămâne competitive. La sfârșitul anilor 1980 și 1990 , supercomputerele au devenit mașini paralele masive bazate pe sute, dacă nu chiar mii de procesoare elementare. Inițial, aceste procesoare erau încă procesoare dezvoltate în mod explicit pentru supercomputere, cum ar fi cele utilizate de CM-5/1024, dar spre sfârșitul anilor nouăzeci până acum a fost definitiv transmis procesorilor generici care au oferit performanțe ridicate și costuri reduse datorită producției de masă implementate de la companii precum Intel sau AMD . Firmele mici născute în anii 80 au dat faliment sau fuseseră absorbite de marile companii, însăși Cray a dat faliment și a fost achiziționată de Silicon Graphics .

În ultimii ani, supercomputerele au devenit mașini din ce în ce mai paralele echipate cu un număr tot mai mare de procesoare elementare. Un exemplu izbitor a fost Blue Gene / L care, cu 212 992 de procesoare, a devenit cea mai puternică mașină de pe planetă când a fost prezentată. Dezvoltarea acestor sisteme este acum realizată de mari companii IT precum IBM sau HP datorită costurilor ridicate de creare a sistemelor de calcul. Supercomputerele sunt acum mașini construite la comandă, sunt piese unice concepute pentru nevoile specifice ale cumpărătorului și realizate prin asamblarea componentelor standard pentru a conține costurile de dezvoltare și producție.

Trebuie remarcat faptul că Europa, după un început promițător, nu a condus niciodată căutarea domeniului supercomputerelor și computerelor în general. De la al doilea război mondial până în anii 1990, Statele Unite ale Americii au deținut practic întotdeauna cele mai puternice computere de pe planetă. Dar, începând cu anii 90, Japonia a început să se impună ca un concurent credibil al hegemoniei SUA datorită finanțării publice substanțiale pentru proiectele de supercomputere realizate de companiile japoneze în cooperare cu universitățile locale, deosebit de semnificativ a fost efortul NEC în acest sector. În anii 2000, proiectul Blue Gene (finanțat de Departamentul Apărării SUA) a întărit poziția SUA, dar în ultimii ani proiectele chineze și japoneze par să poată pune la îndoială conducerea SUA.

Descriere

Filozofie

Ceea ce diferențiază un supercomputer de un computer clasic nu este doar puterea de calcul mai mare, ci și arhitecturile utilizate pentru dezvoltarea acestor mașini. Calculatoarele clasice sunt proiectate în conformitate cu arhitectura von Neumann , deoarece operațiunile pe care utilizatorul le efectuează de obicei cu mașina pot fi efectuate eficient de această arhitectură. Supercalculatoarele, pe de altă parte, analizează adesea o mulțime de date fără interacțiunea reală a utilizatorului, deoarece de obicei trebuie să efectueze un număr mic de operații pe un număr mare de date. Prin urmare, supercomputerele folosesc arhitecturi alternative care sunt capabile să îndeplinească aceste sarcini mai eficient decât arhitectura Von Neumann.

În ultimii ani, însă, această distincție a dispărut, având în vedere că răspândirea jocurilor tridimensionale a forțat computerele clasice și plăcile lor grafice să adopte soluții dezvoltate pentru supercomputere, permițând performanțe ridicate la prețuri modeste, deoarece componentele sunt vândute în zeci (sau sute) de milioane de piese și, prin urmare, costurile cercetării și dezvoltării sunt repartizate pe un număr foarte mare de elemente.

În același timp, creșterea puterii de calcul a microprocesoarelor de computer și problemele tehnice legate de dificultatea creșterii frecvențelor de operare ale procesorelor, au împins sectorul supercomputerii către utilizarea soluțiilor clasice pentru a reduce costurile fără a penaliza performanța. . De fapt, cele mai puternice supercomputere de pe planetă folosesc microprocesoare standard în colaborare cu plăci grafice. Procesoarele grafice ale plăcilor grafice s-au dovedit a fi foarte performante pentru unele tipuri de operații matematice obișnuite privind prelucrarea științifică, astfel încât supercomputerele moderne folosesc baterii de plăci grafice performante.

Caracteristici

Cray-2 a fost cel mai puternic supercomputer din 1985 până în 1989

Supercalculatoarele sunt în mod evident instrumente scumpe , deținute de obicei de companii sau instituții de cercetare care își împart utilizarea între mai mulți angajați / cercetători. Având în vedere viteza actuală de dezvoltare tehnologică în domeniul informaticii și microprocesoarelor , aceștia pierd de obicei adjectivul „super” după câțiva ani de la naștere, depășiți de mașini și mai puternice.

În trecut, supercomputerele erau echipate cu arhitecturi mai sofisticate și componente mai bune decât computerele obișnuite pentru a putea efectua procesarea atribuită mai eficient. Cu toate acestea, din moment ce în anii 1990 , decalajul dintre puterea de supercomputere procesoare si microprocesoare comerciale normale , sa redus treptat, iar arhitectura supercomputere a văzut numărul de procesoare utilizate cresc treptat. În prezent, majoritatea noilor supercalculatoare din conductă și cele aflate în funcțiune se bazează pe clustere de mii sau chiar sute de mii de unități de calcul nu mult mai puternice decât un computer personal bun, conectate prin rețele locale de mare viteză și coordonate de extensii de sistemul de operare adoptat, în general o versiune a Unix : una dintre aceste extensii, openMosix , este și open source .

Un paralelism de calcul similar a fost exploatat de câțiva ani și în computerele comerciale cu așa-numitele tehnologii multicore .

Paralelismul din ce în ce mai masiv al supercomputerelor și, în general, al mașinilor create pentru a garanta capacitatea de calcul ridicată a stimulat multe cercetări în domeniul software pentru a face explicit paralelismul intrinsec în operațiuni și programe: aceste cercetări au condus la definirea unor limbaje de programare paralele , cum ar fi Occam , care este, fără îndoială, cel mai răspândit din grup. [ fără sursă ]

Performanţă

Viteza supercomputerului este de obicei măsurată în „ FLOPS(FL oating Point O perations P er S econd) sau multiplii săi ca TeraFLOPS (10 12 FLOPS). Această măsură este obținută prin rularea unor repere particulare care simulează clase de probleme reale pentru a permite o comparație obiectivă între diferitele mașini. Punctele de referință efectuează de obicei o descompunere LU a unei matrice mari, o problemă similară cu problemele găsite în știință, dar suficient de simplă pentru a fi realizată într-un timp rezonabil.

Utilizări

Supercalculatoarele sunt folosite pentru a efectua procese intensive de calcul, cum ar fi prognozele meteorologice (inclusiv analize privind impactul poluării asupra mediului), analize moleculare (calculul structurii tridimensionale și al plierii acestora, proprietăți chimice etc.) simulări fizice (simulări dinamicii fluidelor , simulări ale detonațiilor nucleare, astrofizică , fizică nucleară etc.), criptanaliză și multe altele. Agențiile militare și guvernamentale ale tuturor națiunilor o folosesc intens. Companiile industriale experimentează, de asemenea, utilitatea sa pentru prognoze și calcule de gestionare a volumelor mari de date care trebuie procesate de APS ( Advanced Planning System ) al sistemului lor de management ( ERP ).

Hardware

Arhitectură

Pictogramă lupă mgx2.svg Taxonomia lui Flynn .

Supercomputerele pentru a obține performanțe din ce în ce mai mari de-a lungul anilor au explorat multe căi și au dezvoltat arhitecturi hardware diferite de arhitecturile obișnuite utilizate în computere. Aceste arhitecturi sunt optimizate pentru a efectua unele tipuri de operații, în timp ce sunt ineficiente pentru alte prelucrări și, prin urmare, arhitecturile au fost dezvoltate în funcție de scopul pentru care a fost dedicată mașina.

Tehnici de prelucrare

Calculul vectorial a fost dezvoltat în supercomputere și este utilizat în prezent pentru a îmbunătăți procesarea unor tipuri de programe. Procesarea DSP și SIMD sunt derivate din tehnologii de procesare vectorială, care sunt prezente în prezent în practic toate procesoarele moderne prin seturi de instrucțiuni specializate.

Consolele moderne folosesc în special procesarea SIMD pe scară largă și, în anumite contexte, aceste mașini pot prezenta performanțe comparabile cu sistemele mult mai scumpe. În interiorul plăcilor grafice moderne există și procesoare specializate capabile să genereze puteri de calcul de ordinul TeraFLOPS datorită procesării SIMD. Aplicațiile pentru plăci grafice au fost legate istoric de procesarea video din cauza limitărilor de programare ale procesoarelor grafice ( GPU-uri ). Dar creșterea constantă a puterii plăcilor grafice (împinsă în mod semnificativ de piața jocurilor video) și dezvoltarea procesorelor grafice avansate care permit o programare mai deschisă a acestora au determinat multe grupuri de cercetare să dezvolte proiecte care vizează utilizarea puterii de calcul a graficii procesoare pentru aplicații generale. Aceste programe se încadrează sub denumirea de calcul general pentru unități de procesare grafică ( GPGPU ).

Dezvoltare

Dezvoltarea în sectorul supercomputerelor s-a concentrat pe anumite domenii specifice, cum ar fi creșterea vitezei de acces la memorie, creșterea vitezei componentelor individuale și creșterea paralelismului mașinii prin împărțirea operațiunilor pe mai multe unități funcționale pentru a crește performanța.

Trebuie luat în considerare faptul că toate supercomputerele trebuie să respecte legea Amdahl și, prin urmare, proiectanții încearcă să facă mașinile cât mai paralele posibil și să exploateze hardware-ul la maximum pentru a elimina blocajele sistemului.

Provocări tehnologice

Răcirea lichidă a unui supercomputer Cray X-MP
Placă de procesor super-computer Cray Y-MP vector

Sectorul de supercomputere, pe lângă faptul că trebuie să se confrunte cu problemele tehnologice clasice ale computerelor, trebuie să se confrunte cu probleme care nu sunt prezente sau mai puțin apăsătoare în sectorul computerelor personale.

  • Supercomputerele generează multă căldură și, prin urmare, disiparea căldurii este o problemă primară în industria de calcul de înaltă performanță. Căldura excesivă produsă, pe lângă crearea unor probleme de disipare, reprezintă un cost ridicat pentru entitățile care achiziționează supercalculatoare. Un supercomputer performant poate consuma mai mult de un megawatt și trebuie luat în considerare faptul că mașinile sunt adesea folosite 24 de ore pe zi, 365 de zile pe an.
  • Informațiile nu pot călători mai repede decât viteza luminii și, prin urmare, supercalculatoarele încearcă să mențină legăturile cât mai scurte posibil, pentru a reduce latențele legăturilor. De exemplu, supercalculatoarele Cray au adesea o formă cilindrică pentru a permite conexiuni scurte între diferitele unități funcționale.
  • Supercomputerele utilizează și generează cantități foarte mari de date într-un interval foarte scurt de timp. Dezvoltarea unor sisteme I / O foarte eficiente și foarte rapide este una dintre problemele principale ale supercomputerelor. Aceasta implică atât unități de stocare fixe, cât și memorii volatile, cum ar fi RAM pentru supercomputer. Memoriile RAM, de exemplu, sunt mult mai lente decât procesoarele și în fiecare an această diferență de performanță crește pe măsură ce amintirile își măresc viteza cu 10%, în timp ce procesoarele își măresc viteza cu 60%.

Tehnologiile dezvoltate pentru supercomputere includ

Software

Pentru a utiliza supercomputerele, programele trebuie adesea adaptate pentru a profita la maximum de particularitățile mașinilor. Software-ul de calcul distribuit utilizează API-uri precum MPI sau PVM sau soluții software open source precum Beowulf sau openMosix pentru a crea un fel de supercomputere virtuale folosind computere obișnuite conectate prin rețele locale de mare viteză. Tehnologii precum Zeroconf ( Bonjour ) fac posibilă construirea de supercalculatoare virtuale pentru sarcini specifice. De exemplu, software-ul Apple Shake folosește tehnologia ZeroConf pentru a localiza alte computere pe care le utilizați în rețeaua locală și pentru a împărți sarcinile de calcul pe diferitele computere. Aproape toate programele grafice tridimensionale permit funcționalități similare. Deși nicio soluție computerizată obișnuită nu a reușit vreodată să devină cel mai puternic computer de pe planetă, această distincție se îngustează din ce în ce mai mult și poate dispărea în viitorul apropiat. În prezent, problema majoră deschisă din sectorul supercomputerelor este crearea de limbaje de programare simple capabile să exploateze paralelismul mașinilor.

Sisteme de operare

Majoritatea supercomputerelor folosesc în prezent Linux sau o variantă a Unix . Linux a fost foarte popular din 2004

Statistici recente arată că peste 96% din primele 500 de supercalculatoare cunoscute de noi folosesc exclusiv sisteme de operare bazate pe Linux [1] și doar o parte foarte mică utilizează în schimb variante Unix sau Microsoft . De asemenea, este posibil să se evalueze modul în care supercomputerele cu sisteme de operare familiale Linux sunt, de fapt, și cele care garantează cele mai bune performanțe, întrucât 96,4% din cele 500 de supercomputere care utilizează Linux „furnizează” 97,9% din totalul GFlops. Din primele 500 de supercalculatoare.

Interfețele grafice sunt mult mai dezvoltate decât în ​​trecut, dar în orice caz tind să fie mai puțin dezvoltate decât cele utilizate de computerele personale, deoarece dezvoltatorii tind să nu petreacă prea mult timp pe extensiile neesențiale ale sistemului de operare (neesențial înseamnă toate componente care nu contribuie direct la prelucrarea informațiilor sau la optimizarea prelucrării). Acest lucru este logic având în vedere că utilizatorii finali vor fi un număr limitat de utilizatori care ar trebui să aibă cunoștințe corecte de informatică și, prin urmare, nu ar trebui să fie impresionați de o interfață grafică spartană. Cu toate acestea, răspândirea Linux a făcut posibilă reutilizarea multor interfețe grafice dezvoltate pentru computerele personale, îmbunătățind interfața grafică în comparație cu modelele produse în anii precedenți.

Este interesant faptul că în ultimii ani principalii concurenți din sectorul supercomputere precum Silicon Graphics au pierdut comenzi către companii precum NVIDIA care, dezvoltând produse pentru piața computerelor personale, are o mulțime de fonduri pentru a investi în cercetare și dezvoltare. Căutarea continuă a performanțelor superioare îi împinge pe aceste companii să prezinte produse care sunt competitive cu cele ale companiilor clasice de supercomputere, dar la o fracțiune din costul lor, datorită economiei de scară pe care o pot realiza companiile care vizează sectorul computerelor personale.

Din punct de vedere istoric, supercomputerele au preferat să sacrifice compatibilitatea cu trecutul pentru a obține performanțe din ce în ce mai mari. Deci, noile generații de sisteme nu erau compatibile cu trecutul. Aceasta nu a fost o problemă reală, deoarece utilizatorii de supercomputeruri au dezvoltat adesea aplicațiile pe care le-au folosit intern și apoi adaptarea programelor pentru mașini noi nu a fost o procedură foarte costisitoare. Acest lucru a împins companiile producătoare să aibă sisteme de operare diferite pentru mașinile lor. Cray, de exemplu, a dezvoltat șase versiuni distincte ale sistemului său de operare UNICOS și înainte de acest sistem de operare a dezvoltat alte sisteme de operare evident incompatibile. Alți producători au urmat căi similare și, de fapt, deși aproape toate supercomputerele au folosit variante Unix încă din anii 70, cele mai multe sunt incompatibile între ele. În ultimii ani, odată cu difuzarea Linux, a existat un proces de reducere și consolidare, dar în orice caz, sistemele performante și sistemele dezvoltate pentru a obține o securitate ridicată tind să includă extensii proprietare care fac diferitele sisteme de operare practic incompatibile.

Programare

Arhitecturile supercomputerelor paralele necesită tehnici speciale de programare pentru a exploata în mod eficient puterea de calcul paralelă a acestor sisteme. Fortran rămâne un limbaj foarte popular în comunitatea științifică datorită simplității sale comparativ cu limbaje precum C sau C ++ și datorită faptului că compilatoarele optimizate pentru unele aplicații sunt capabile să creeze cod mai eficient decât cel generat de compilatoarele C exploatând paralelismul mașinilor, instrumentele de programare precum PVM și MPI sunt puse la dispoziție pentru clustere de computere conectate prin rețele care nu sunt foarte rapide și OpenMP pentru a gestiona mașini cu memorii partajate cu latențe mari. În ultimii ani, acestor limbi istorice li s-au alăturat limbi mai recente, cum ar fi CUDA sau OpenCl, pentru a exploata gpu -ul actual.

Tipuri de supercalculatoare

Supercomputerul Columbia al NASA din instalația avansată de supercomputare NASA

Există trei mari categorii de supercalculatoare de uz general:

  • Mașini vectoriale , aceste mașini efectuează aceeași operație (aritmetică sau logică) pe o mulțime de date în același timp. Procesoarele cu instrucțiuni capabile să facă acest lucru sunt denumite în prezent procesoare de instrucțiuni SIMD și nu sunt considerate procesoare vector, deoarece nu este modul lor principal de funcționare.
  • Calculatoarele paralele constau dintr-un set de noduri de calcul conectate prin rețele telematice de mare viteză. De obicei, utilizează o arhitectură de memorie de tip NUMA . Procesoarele, amintirile și rețeaua de comunicații sunt proiectate de la început pentru a fi asamblate într-un sistem format din mai multe noduri.
  • Cluster , un număr mare de computere personale conectate prin rețele telematice cu latență scăzută rapidă.

În prezent, legea lui Moore și economia de scară domină sectorul supercomputerelor și designul acestora. Un singur computer modern este mai rapid decât un supercalculator de acum cincisprezece ani, iar tehnicile de obținere a unei puteri de calcul ridicate, care odinioară păstrau supercalculatoarele, sunt acum comune în rândul computerelor. Proiectarea circuitelor integrate necesită acum investiții substanțiale și dacă circuitul integrat este produs într-un număr limitat de piese, costul de dezvoltare afectează excesiv produsul, de aceea avem tendința de a prefera componentele produse în serie pentru a răspândi costul de dezvoltare pe milioane de exemplare.

În cele din urmă, multe probleme analizate de supercalculatoare pot fi paralelizate în mod eficient. Multe probleme pot fi paralelizate pentru a accesa rar memoria principală, concentrând majoritatea acceselor într-o zonă de memorie apropiată de procesor și, prin urmare, rapidă. Acest lucru vă permite să nu supraîncărcați rețeaua într-un sistem cluster. Din acest motiv, supercomputerele cu câteva procesoare foarte rapide sunt acum limitate la aplicații care nu pot fi paralelizate.

Supercalculatoare specializate

FPGA conținând 20.000 de porți logice

Supercomputerele specializate sunt dispozitive de înaltă performanță dezvoltate pentru a îndeplini sarcini specifice. De obicei, acestea sunt dezvoltate prin implementarea funcțiilor care trebuie îndeplinite pentru a rezolva problema din hardware pe cipurile FPGA sau pe cipurile VLSI personalizate. Această soluție oferă un raport optim preț-performanță, dar, în mod evident, sacrifică generalitatea, deoarece odată ce problema a fost rezolvată, mașina nu poate fi dirijată să îndeplinească alte sarcini fără a reprograma / înlocui componentele personalizate.

Aceste sisteme sunt utilizate pentru criptanaliză , pentru analize astrofizice sau chiar pentru simulări de bioinformatică.

Exemple de supercalculatoare specializate sunt:

Aproape supercomputer

Multe proiecte de calcul distribuite dezvoltă o putere de calcul comparabilă cu cea dezvoltată de cele mai puternice supercalculatoare de pe planetă. Un exemplu este proiectul SETI @ home , care este capabil să dezvolte până la 72,53 TFLOPS.

Pe 16 mai 2005, proiectul distribuit Folding @ home a reușit să dezvolte până la 700 TFLOPS de vârf folosind computere și console care susțin proiectul. [2]

Proiectul GIMPS Mersenne Numbers se dezvoltă în jur de 20 TFLOPS începând din februarie 2006. [3]

Se estimează că motorul de căutare Google dezvoltă între 126 și 316 TFLOPS, cu un sistem compus dintr-un număr între 32.000 și 79.000 Xeon dual la 2 GHz [4] Se știe că serverele sunt distribuite pe planetă și pentru că un astfel de număr de computerele ar ocupa o clădire imensă și ar fi logistic dificil de răcit dacă ar fi plasate toate în același mediu, astfel încât computerele sunt presupuse să funcționeze în modul Grid .

Supercomputere existente

Cel mai puternic supercomputer de pe planetă

Dulap de sistem Blue Gene / L

La 25 martie 2005, prototipul IBM Blue Gene / L era cel mai puternic computer de pe planetă. Extinderile ulterioare ale sistemului l-au determinat să genereze 70,72 TeraFLOPS (10 12 FLOPS ) datorită 32.768 procesoare instalate. Supercomputerul a folosit procesoare PowerPC 440 modificate special pentru această arhitectură. Extinderile ulterioare ale mașinii au dus la ca sistemul să aibă 131.072 de procesoare și să genereze 280 de TeraFLOPS. Începând cu noiembrie 2006, BlueGene / L era cea mai puternică mașină de pe planetă conform site-ului TOP500 [5] . În iunie 2006, sistemul cu 131.072 de procesoare a atins un nou record prin dezvoltarea a 207,5 TFLOPS într-o aplicație reală. [6] În 2008, sistemul IBM Roadrunner a trecut pragul petaFLOPS. În 2009, sistemul Cray Jaguar aproape a dublat performanța computerului IBM, iar la sfârșitul anului 2010 sistemul chinez Tianhe-1A a depășit supercomputerele din SUA pentru a deveni cel mai puternic computer din lume.

MDGRAPE-3 este un computer finalizat în iunie 2006 capabil să dezvolte o putere PetaFLOPS, sistemul nu intră în clasament deoarece este un computer specializat pentru simularea interacțiunilor chimice și, prin urmare, nu este capabil să ruleze etaloanele utilizate pentru compararea sistemelor de calcul . [7]

În 2017, chinezul Sunway TaihuLight bate recordul supercalculatorului chinez Tianhe - 2.

În 2018, supercomputerul OLCF-4 sau Summit cu o viteză de calcul de 200 petaFLOPS a fost construit în laboratorul național Oak Ridge . Summit este primul supercomputer care a depășit bariera exascală , la care a ajuns în timpul unei analize genomice, ajungând la 1,88 exaFLOPS și se estimează că poate ajunge la 3,3 exaFLOPS utilizând un amestec de metode și sisteme de calcul de precizie; acest lucru face Summit-ul în prezent cel mai puternic computer din lume. [8]

Supercomputerele anterioare de pe planetă

Înainte de sosirea sistemelor BlueGene / L, cea mai rapidă înregistrare computerizată de pe planetă a fost NEC Earth Simulator al Yokohama Institute for Earth Sciences din Japonia . Clusterul consta din 640 de carduri echipate cu procesoare vectoriale pe 8 căi bazate pe arhitectura NEC SX-6 pentru un total de 5.120 de procesoare. Sistemul utilizează o versiune special dezvoltată a sistemului de operare UNIX .

Pe vremea simulatorului Pământ, computerul era de cinci ori mai rapid decât anteriorul computer ASCI White de la Laboratorul Național Lawrence Livermore . Simulatorul Pământului a rămas cel mai puternic computer de pe planetă timp de doi ani și jumătate.

I supercomputer odierni sono prodotti da una ristretta cerchia di aziende, tra cui IBM , SGI , Sun Microsystems , HP , NEC , Fujitsu , Bull e Cray . Si vanno diffondendo i sistemi prodotti in modo "amatoriale", ossia mettendo insieme un grande numero di normali PC attraverso una rete veloce di comunicazione. Per esempio, il cluster System X della Virginia Tech University ha raggiunto la posizione numero tre nel novembre 2003 .

I grafici costruiti dal sito (come questi ) mostrano un aumento della potenza di calcolo negli anni regolare, come previsto dalla Legge di Moore .

L'elenco dei 500 computer più potenti del pianeta la TOP500 è gestita e mantenuta dal sito omonimo .

Supercomputer futuri

In Italia , a Bologna , verrà realizzato il supercomputer Leonardo con una potenza di 270 petaFLOPS e che farà parte della rete di calcolo europea ad alte prestazioni EuroHPC [9] [10] . La rete di calcolo europea, oltre a quello italiano, prevede la realizzazione anche di altri due supercomputer pre-exascale con prestazioni paragonabili e comunque in grado di posizionarsi tra i primi 5 elaboratori al mondo per potenza di calcolo, e di altri 5 elaboratori con potenze di calcolo di almeno 4 Petaflops ciascuno. [11]

Sun Microsystems ha presentato il sistema Sun Constellation System , un sistema scalabile e modulare. Il sistema può utilizzare come processore centrale UltraSPARC T1 prodotto da Sun, l' Opteron "Barcelona" quad-core prodotto da AMD e il processore Xeon di Intel. La configurazione base del sistema con 6500 processori Opteron sviluppa 420 TeraFLOPS ma Sun dichiara che il sistema sarà scalabile fino a 2 PetaFLOPS. [12]

L' India sta sviluppando un supercomputer che dovrebbe arrivare alla potenza di un PetaFLOPS. Il progetto è diretto da Dr. Karmarkar l'inventore dell' algoritmo di Karmarkar . La società Tata gestisce il progetto. [13]

Il Ministero della Scienza e Educazione giapponese ha commissionato a NEC, Hitachi e Fujitsu il progetto e la realizzazione del supercomputer della prossima generazione, mirando a metterlo in opera entro la fine del 2012 . L'unità a microprocessori adotterà due tecnologie: quella vettoriale, proposta congiuntamente da NEC e Hitachi, e quella scalare presentata da Fujitsu. Per un investimento di 115,4 miliardi di yen (ca. 704 milioni di euro), il progetto parla di una capacità operazionale teorica di 10 PetaFLOPS. L'ubicazione sarà nella città di Kōbe all'interno di un edificio che occuperà una superficie di 3.200 m².

Analogamente il Dipartimento dell'Energia USA dell'Argonne National Laboratory ha selezionato la prossima generazione di supercomputer IBM Blue Gene per l'impiego in 16 progetti selezionati che spaziano dai campi dell'energia pulita, alla simulazione e modellazione dei cambiamenti climatici fino alla ricerca per la comprensione dell'universo. Anche per questi supercomputer la capacità di calcolo dovrebbe assestarsi sui 10 PetaFLOPS. [14]

Cronologia dei supercomputer

Questa lista elenca i supercomputer non specializzati più veloci del pianeta indicando l'anno e la loro localizzazione. Fino al 1993 ci si è basati su varie fonti per la compilazione della classifica [15] , dal 1993 in poi si fa affidamento sulla classifica TOP500 . [16]

Anno Supercomputer Velocità di picco
(Rmax)
Sede
1938 Zuse Z1 1 OPS Konrad Zuse , Berlino , Germania
1941 Zuse Z3 20 OPS Konrad Zuse , Berlino , Germania
1943 Colossus 1 5 kOPS Post Office Research Station , Bletchley Park , Regno Unito
1944 Colossus 2 (singolo processore) 25 kOPS Post Office Research Station , Bletchley Park , Regno Unito
1946 Colossus 2 (processore parallelo) 50 kOPS Post Office Research Station , Bletchley Park , Regno Unito
1946
UPenn ENIAC
(dopo le modifiche del 1948+)
5 kOPS Department of War
Aberdeen Proving Ground , Maryland , USA
1954 IBM NORC 67 kOPS Department of Defense
US Naval Proving Ground , Dahlgren, Virginia , USA
1956MIT TX-0 83 kOPSMassachusetts Inst. of Technology , Lexington, Massachusetts , USA
1958 IBM AN/FSQ-7 400 kOPS 25 siti US Air Force sparsi per gli USA e 1 in Canada (52 computer)
1960 UNIVAC LARC 250 kFLOPS Atomic Energy Commission (AEC)
Lawrence Livermore National Laboratory , California , USA
1961 IBM 7030 "Stretch" 1.2 MFLOPS AEC-Los Alamos National Laboratory , Nuovo Messico , USA
1964 CDC 6600 3 MFLOPS AEC-Lawrence Livermore National Laboratory , California , USA
1969 CDC 7600 36 MFLOPS
1974 CDC STAR-100 100 MFLOPS
1975 Burroughs ILLIAC IV 150 MFLOPS NASA Ames Research Center , California , USA
1976 Cray-1 250 MFLOPS Energy Research and Development Administration (ERDA)
Los Alamos National Laboratory , Nuovo Messico , USA (Più di 80 venduti nel mondo)
1981 CDC Cyber 205 400 MFLOPS (~40 sistemi nel mondo)
1983 Cray X-MP /4 941 MFLOPS US Department of Energy (DoE)
Los Alamos National Laboratory ; Lawrence Livermore National Laboratory ; Battelle ; Boeing USA
1984 M-13 2.4 GFLOPS Scientific Research Institute of Computer Complexes , Mosca , USSR
1985 Cray-2 /8 3.9 GFLOPS DoE-Lawrence Livermore National Laboratory , California , USA
1989 ETA10 -G/8 10.3 GFLOPS Florida State University , Florida , USA
1990 NEC SX-3/44R 23.2 GFLOPS NEC Fuchu Plant, Tokyo , Giappone
1991 INFN APE100 (in seguito Quadrics ) 100 GFLOPS INFN , Roma e Pisa , Italia
1993 Thinking Machines CM -5/1024 59.7 GFLOPS DoE-Los Alamos National Laboratory ; National Security Agency USA
1993 Fujitsu Numerical Wind Tunnel 124.50 GFLOPS National Aerospace Laboratory , Tokyo , Giappone
1993 Intel Paragon XP/S 140 143.40 GFLOPS DoE-Sandia National Laboratories , Nuovo Messico , USA
1994 Fujitsu Numerical Wind Tunnel 170.40 GFLOPS National Aerospace Laboratory , Tokyo , Giappone
1996 Hitachi SR2201/1024 220.4 GFLOPS University of Tokyo , Tokyo Giappone
Hitachi / Tsukuba CP-PACS/2048 368.2 GFLOPS Center for Computational Physics , University of Tsukuba , Tsukuba , Giappone
1997 Intel ASCI Red /9152 1.338 TFLOPS DoE-Sandia National Laboratories , Nuovo Messico , USA
1999 Intel ASCI Red /9632 2.3796 TFLOPS
2000 IBM ASCI White 7.226 TFLOPS DoE-Lawrence Livermore National Laboratory , California , USA
2002 NEC Earth Simulator 35.86 TFLOPS Earth Simulator Center , Yokohama , Giappone
2004 IBM Blue Gene/L 70.72 TFLOPS DoE / IBM Rochester , Minnesota , USA
2005 136.8 TFLOPS DoE / US National Nuclear Security Administration ,
Lawrence Livermore National Laboratory , California , USA
280.6 TFLOPS
2007 478.2 TFLOPS
2008 IBM Roadrunner 1.026 PFLOPS DoE-Los Alamos National Laboratory , Nuovo Messico , USA
1.105 PFLOPS
2009 Cray Jaguar 1.759 PFLOPS DoE-Oak Ridge National Laboratory , Tennessee , USA
2010 Tianhe-1A 2.507 PFLOPS National Supercomputing Center , Tientsin , Cina
2011 K Computer 8.200 PFLOPS Advanced Institute for Computational Science , Kōbe , Giappone
2012 Titan 20.0 PFLOPS Oak Ridge National Laboratory , Tennessee , USA
2013 Tianhe-2 33.86 PFLOPS China's National University of Defense Technology , Canton , Cina
2016 Sunway TaihuLight 93 PFLOPS National Supercomputing Center a Wuxi nella città di Wuxi , Provincia di Jiangsu , Cina

Note

  1. ^ Top00.org , Famiglia dei sistemi operativi sui primi 500 supercomputer. Linux: 96.4%
  2. ^ Folding@Home a 700 teraFLOP grazie alle Playstation 3
  3. ^ Internet PrimeNet Server
  4. ^ Cluster Google Archiviato il 24 luglio 2008 in Internet Archive .
  5. ^ Lista ToP500 del novembre 2005 Archiviato il 4 gennaio 2006 in Internet Archive .
  6. ^ Redord del sistema Blue Gene/L Archiviato il 1º ottobre 2006 in Internet Archive .
  7. ^ Sistema MDGRAPE-3 Archiviato l'11 marzo 2007 in Internet Archive . Copia archiviata , su mdgrape.gsc.riken.jp . URL consultato il 26 marzo 2007 (archiviato dall' url originale il 20 febbraio 2007) . Il supercomputer giapponese Archiviato il 6 agosto 2006 in Internet Archive .
  8. ^ ( EN ) The US again has the world's most powerful supercomputer , su Engadget . URL consultato il 3 maggio 2020 .
  9. ^ Si chiamerà Leonardo il supercomputer ospitato in Italia , su ansa.it . URL consultato il 14 giugno 2019 .
  10. ^ In Italia un supercomputer del futuro , su ansa.it . URL consultato il 14 giugno 2019 .
  11. ^ ( EN ) Digital Single Market: Europe announces eight sites to host world-class supercomputers , su europa.eu , European Council, 7 giugno 2019. URL consultato il 9 novembre 2019 .
  12. ^ Petascale computing: Sun nella mischia con Constellation , su hwupgrade.it , hardware Upgrade. URL consultato il 29 giugno 2007 .
  13. ^ Supercomputer Indiano
  14. ^ 10 PetaFLOPS per la prossima generazione di IBM Blue Gene | Business Magazine , su businessmagazine.it . URL consultato l'11 febbraio 2011 (archiviato dall' url originale il 12 febbraio 2011) .
  15. ^ CDC timeline at Computer History Museum , su computerhistory.org . URL consultato il 31 ottobre 2010 (archiviato dall' url originale il 25 giugno 2006) .
  16. ^ Directory page for Top500 lists. Result for each list since June 1993

Voci correlate

Altri progetti

Collegamenti esterni

Controllo di autorità Thesaurus BNCF 4917 · LCCN ( EN ) sh85130580 · BNF ( FR ) cb120021513 (data) · NDL ( EN , JA ) 01090879
Informatica Portale Informatica : accedi alle voci di Wikipedia che trattano di informatica