Componente

Interiorul Tsubame - supercomputerul Nvidia GPU

NVIDIA RTX vs. GTX - What Is The Difference? [Simple]

NVIDIA RTX vs. GTX - What Is The Difference? [Simple]
Anonim

Când intri în camera computerului la etajul al doilea al clădirii de calculatoare a Institutului de Tehnologie din Tokyo, nu ești imediat lovită de mărimea celui de-al doilea supercomputer din Japonia. Nu puteți vedea computerul Tsubame pentru unitățile industriale de climatizare care stau în calea dvs., dar acest lucru în sine se spune. Cu mai mult de 30.000 de nuclee de procesare, mașina consumă un megawatt de putere și trebuie să fie păstrată răcoroasă.

Tsubame a fost clasat pe locul 29 cel mai rapid supercomputer din lume în ultimul clasament Top 500 cu o viteză de 77.48T Flops operațiuni în virgulă mobilă pe secundă) pe standardul de referință Linpack standard.

În timp ce poziția sa este relativ bună, nu este ceea ce o face atât de specială. Lucrul interesant despre Tsubame este că nu se bazează numai pe puterea de procesare brută a procesoarelor (unități centrale de procesare) pentru a-și face munca. Tsubame include sute de procesoare grafice de același tip utilizate în PC-urile de consum, care lucrează alături de procesoarele într-un mediu mixt, pe care unii spun că este un model pentru viitoarele supercomputere care deservesc discipline precum chimia materialelor. și backup]

Procesoarele grafice (GPU) sunt foarte bune pentru a efectua rapid aceleași calcule pe cantități mari de date, astfel încât acestea pot face scurte lucrări ale unor probleme cum ar fi dinamica moleculară, simulările fizice și procesarea imaginilor. > "Cred că în marea majoritate a problemelor interesante din viitor, problemele care afectează omenirea, unde impactul provine de la natură … necesită capacitatea de a manipula și de a calcula pe un set de date foarte mare", a declarat Jen-Hsun Huang, CEO de Nvidia, care a vorbit săptămâna aceasta la universitate. Tsubame folosește 680 de carduri grafice Tesla de la Nvidia.

Doar cât de mult o face diferența GPU-urile? Takayuki Aoki, profesor de chimie materială la universitate, a declarat că simulările care durează trei luni acum durează 10 ore pe Tsubame.

Tsubame însuși - odată ce treceți de aerul condiționat - este împărțit în mai multe camere în două podele ale clădirii și sunt în mare parte alcătuite din sisteme Sun x4600 montate pe rafturi. Există 655 dintre acestea, fiecare având 16 nuclee CPU AMD Opteron și placile de accelerator Clearspeed CSX600.

Chipsurile grafice sunt cuprinse în 170 de unități de rack Nvidia Tesla S1070 care au fost introduse între Sistemele solare. Fiecare dintre sistemele 1U Nvidia are patru GPU-uri interioare, fiecare având 240 miezuri de procesare pentru un total de 960 miezuri pe sistem.

Sistemele Tesla au fost adăugate la Tsubame pe parcursul a aproximativ o săptămână în timp ce computerul funcționa.

"Oamenii credeau că suntem nebuni", a declarat Satoshi Matsuoka, director al Centrului Global de Informare și Calcul al Științelor din cadrul Universității. "Acesta este un supercomputer de 1 miliard de dolari, consumând un megawatt de putere, dar am dovedit din punct de vedere tehnic că a fost posibil."

Rezultatul este ceea ce personalul universitar numeste versiunea 1.2 a supercomputerelor Tsubame. Cred că ar fi trebuit să obținem 85 de flopuri, dar am rămas fără timp, așa că a fost 77 de flopuri ", a spus Matsuoka, referitor la benchmark-urile efectuate pe sistem. La 85T Flops ar fi urcat cateva locuri in top 500 si ar fi fost cel mai rapid in Japonia.

Exista mereu data viitoare: O noua lista Top 500 se va desfasura in iunie 2009, iar Institutul de Tehnologie din Tokyo cauta mai departe.

"Acesta nu este sfârșitul lui Tsubame, este doar începutul accelerației GPU-ului devenind obișnuit", a spus Matsuoka. "Noi credem că în lume vor exista supercomputere care să înregistreze mai multe petaflopi în următorii ani și am dori să urmăm exemplul."

Tsubame 2.0, așa cum el a numit următorul upgrade, ar trebui să fie aici în următorii doi ani și va avea o performanță susținută de cel puțin un petaflop (un petaflop este de 1000 de teraflopi), a spus el. Design-ul de bază pentru mașină nu este încă finalizat, dar va continua baza de calcul eterogenă de mixare a CPU-urilor și GPU-urilor, a spus el.