Blog
Fizyka Smoleńska
you-know-who
you-know-who fizyk, pilot z licen. FAA i TC
105 obserwujących 54 notki 742647 odsłon
you-know-who, 6 lipca 2017 r.

Superkomputery cz. 2. Najszybsze systemy CPU, MIC i GPU

770 21 0 A A A
Prometeusz - najszybszy polski superkomputer; oparty jest na CPU
Prometeusz - najszybszy polski superkomputer; oparty jest na CPU


Superkomputery pomagają w badaniach przyrody, projektowaniu urządzeń i leków. Czym są, jak działają, jakich używają procesorów, jak szybko liczą? Odpowiedzi na te pytania zilustrujemy przykładami kilku superkomputerów, w tym czterech najszybszych na świecie oraz największego w Polsce.

Zdefiniujmy superkomputer

W latach 60. (to starożytna epoka technik obliczeniowych; geometryczny postęp technologii komputerowej opisałem w Delcie 5/2017) uznawano za superkomputery maszyny firm Cray i CDC. Były 3 do 10 razy szybsze niż inne komputery. Później nazywano tak wszelkie systemy zdolne do obliczeń o rząd wielkości szybszych niż pojedynczy, średni komputer. Pod koniec XX wieku międzynarodowa grupa informatyków podjęła się uaktualniania dwa razy na rok szczegółowej listy 500 najszybszych systemów obliczeniowych świata. Jeśli przyjąć treść listy za ich definicję, to wiadomo ściśle, ile jest superkomputerów (500). Listę TOP500 łatwo jest odszukać w sieci.

Od chaosu do Linuxa

Do pierwszych lat obecnego wieku panowała trudna dziś do wyobrażenia różnorodność i konkurencja kilkunastu rodzajów procesorów. Mikroprocesory o architekturze x86 korporacji Intel zdobyły w ostatniej dekadzie całkowitą przewagę w dziedzinie wysokowydajnych obliczeń HPC (High Performance Computing), pozostawiając konkurencyjnej (także amerykańskiej) architekturze Power firmy IBM mniej niż 10% rynku. To samo nastąpiło wśród maszyn domowych. Np. komputery Apple miały kiedyś procesory Motoroli, potem PowerPC, ale od 2005 r. przeszły na procesory z rodziny x86. Tylko w telefonach przewagę zyskały procesory ARM (o zredukowanym słowniku komend procesora). Azja i Europa (mimo że ta druga nie produkuje wiodących procesorów) myślą o zawojowaniu w następnej dekadzie z pomocą oszczędnej architektury ARM rynku superkomputerów.

obrazek

Podobna unifikacja zaszła w oprogramowaniu podstawowym superkomputerów. Z chaosu dawnych zmagań wyłonił się jako zwycięzca system operacyjny Linux (potomek Unixa). System Windows nie jest spotykany w świecie HPC. Linux jest nie tylko bardziej logiczny i niezawodny, ale jest też systemem otwartym i darmowym. Mikroprocesory Intela są natomiast niezawodne, szybkie i popularne, ale pilnie strzeżone patentami i drogie. Produkcja odbywa się w 75% w USA, a reszta w Irlandii, Izraelu i Chinach, po czym wysyłane są zwykle do końcowej integracji i testowania w Malezji. Zamiana piasku (krzemu) na procesory to działalność opłacalna, lecz kapitałochłonna. Skoro mowa o pieniądzach, to Intel oferuje zwykle studentom wszystkich uczelni świata za darmo swoje drogie oprogramowanie. Warto skorzystać!

Anatomia superkomputera: rdzenie, pamięci i łącza

W dawnych czasach superkomputer miał 4 do 8 niezależnych procesorów (rdzeni) i unikatowy system łącz danych. Mieścił się w jednym dużym monolicie. Obecne superkomputery są zupełnie inne: to klastry, czyli bardzo liczne (∼ 104) węzły obliczeniowe umieszczone w standardowego wymiaru szafach komputerowych, połączone szybkimi łączami. Węzeł ma kilka procesorów obliczeniowych (1-8 ), a z fizycznej konieczności uzasadnionej w wyżej cytowanym artykule Delty każdy procesor ma wiele rdzeni liczących równocześnie (od 4 do 240). Duży superkomputer ma dziś zatem wiele milionów rdzeni obliczeniowych, z których każdy może wykonywać kilka równoległych wątków obliczeń. Zadanie musi zostać podzielone na mnóstwo współbieżnych części, dopasowanych jak najlepiej do wielopoziomowej hierarchii zarówno kalkulatorów, jak i pamięci: od pamięci podręcznej (cache, do kilkudziesięciu MB) i pamięci operacyjnej (10 do 100 GB, tj. gigabajtów), aż po najwolniejsze i najbardziej pojemne pamięci stałe lub dyskowe (czasami w sumie kilka petabajtów, |PB = 1015 B).

Szybkość dostępu do pamięci z dowolnego procesora jest zasadnicza, dlatego łącza komunikacyjne są niesłychanie ważne, będąc potencjalnie wąskim gardłem obliczeń. W najpopularniejszych łączach Infiniband wiązką drutów lub światłowodem płynie strumień danych 50-100 GB/s.


Łącza najszybszej od 3 lat maszyny obliczeniowej Sunway TaihuLight

image


Komputer ma więcej łączy niż węzłów, np. w topologii wielowymiarowego torusa. Dane rozpoczynają płynąć szerokim strumieniem już po mikrosekundzie od wysłania komendy. W największych instalacjach w czasie sekundy transmitowany jest siecią łącz petabajt, tj. zawartość trzeciej co do wielkości na świecie biblioteki na Uniwersytecie Toronto (54 miliony dokumentów). Gdy porównamy ten strumień liczb ( 14 ∼ 10 liczb/s) z sumarycznym tempem działań arytmetycznych w superkomputerze (prawie |100 PFLOP/s = 1017/s), to zrozumiemy, że rdzenie obliczeniowe dużo szybciej produkują wyniki działań, niż pozyskują dane. Sztuka HPC sprowadza się do tego, by liczyć jak najbardziej lokalnie, nie dając się rdzeniom nudzić w oczekiwaniu na dane z odległej pamięci. Pomagają w tym nieco kompilatory, tłumaczące program w jednym z języków komputerowych (C++, Fortran i in.) na binarne instrukcje w kodzie x86. Optymalizacja nie odbywa się jeszcze w pełni automatycznie. Nadal ważną rolę odgrywają umiejętności programisty decydującego o strukturach danych i programu.

Opublikowano: 06.07.2017 10:25. Ostatnia aktualizacja: 08.07.2017 08:00.
Autor: you-know-who
Skomentuj Obserwuj notkę Napisz notkę Zgłoś nadużycie
NEWSY - TOP 5

O mnie

Nazywam się Paweł Artymowicz, ale wolę tu występować jako YKW.

Kopia bloga i komentarzy w http://fizyka-smolenska.blogspot.com. Mam blog: http://pawelartymowicz.natemat.pl.


Latam wzdłuż i wszerz kontynentu amerykańskiego (w 2017 r. 45-50 godzin za sterami, ~10 tys. km; zdjęcie w tle: Pacyfik, RWY 24L, 24R, baza Marines Miramar znana z programu i filmu Topgun) . Jestem niezłym, szeroko cytowanym profesorem fizyki i astrofizyki (zestawienie ze znanymi osobami poniżej). Mam najwyższe stopnie naukowe nadane przez kilka krajów. Ale cóż, że byłem stypendystą Hubble'a (prestiżowa pozycja fundowana przez NASA) jeśli nie umiałbym nic policzyć i rozwikłać części "zagadki smoleńskiej". To co mowię lub liczę wybroni się samo. Nie mieszam się do polityki, ale gdy polityka zaczyna gwałcić fizykę, a na dodatek moje ulubione hobby - latanie, to bronię tych drugich, obnażając różne obrażające je teorie z zakresu "fizyki smoleńskiej". Zwracam się do was per "drogi nicku", co nie oznacza, że was nie cenię. Wręcz przeciwnie. Zapraszam do obejrzenia wywiadów i felietonow w moim haśle biograficznym na wiki. [Uzupełnienie o wskaźnikach naukowych (za Google Scholar 2014): mam wysoki indeks Hirscha h=30, i10=41, oraz ponad 4 razy wiecej cytowań na pracę niż średnia w mojej dziedzinie - fizyce. Moja liczba cytowań to ponad 4100. Dla porównania, prof. Binienda miał dużo niższy wskaźnik h=14, 900 cytowań oraz 1.2 razy średnia liczbę cytowań na pracę, w dziedzinie inżynierii. Dr Nowaczyk ma w porównaniu ze mną b. mały samodzielny dorobek naukowy, a dr Szuladziński znikome cytowania. Dużo mniejsze osiągnięcia ma też prof. C. Cieszewski: h=17, i10=25, 1252 cytowań]

Ostatnie notki

Najpopularniejsze notki

Ostatnie komentarze

  • miła opowieść, choć zmyślona (w polowie wieku byly juz wspolczesne zapalki, wynalazl je...
  • nie zgodze sie z tezą autora o ograniczonym sukcesie projektu terroryzm. 9/11 na przyklad mial...
  • albo maslo albo armaty... a poniewaz armat ani helikopterow nie ma i nie bedzie, malo przydaja...

Tematy w dziale Technologie