登録は簡単!. 無料です
または 登録 あなたのEメールアドレスで登録
Rocket clouds
Serwer により Mind Map: Serwer

1. Pamięci

1.1. DDR

1.1.1. Produkcję pamięci DDR SDRAM rozpoczęto w 1999 roku. Jest ona modyfikacją dotychczas stosowanej pamięci SDRAM (ang. synchronous dynamic RAM). W pamięci typu DDR SDRAM dane przesyłane są w czasie trwania zarówno rosnącego jak i opadającego zbocza zegara, przez co uzyskana została dwa razy większa przepustowość niż w przypadku konwencjonalnej SDRAM typu PC-100 i PC-133. Kości zasilane są napięciem 2,5 V a nie 3,3 V, co wraz ze zmniejszeniem pojemności wewnątrz układów pamięci, powoduje znaczące ograniczenie poboru mocy. Czas dostępu do danych znajdujących się w pamięci RAM w najnowszych pamięciach DDR-SDRAM wynosi ok. 4 ns. W najnowszych układach GDDR5 stosowanych w kartach graficznych opóźnienie sięga 0,4 ns.

1.2. DDR2

1.2.1. Pamięć DDR2 charakteryzuje się wyższą efektywną częstotliwością taktowania (400, 533, 667, 800, 1066 MHz) oraz niższym poborem prądu. Podobnie jak DDR, pamięć DDR2 wykorzystuje do przesyłania danych narastające i opadające zbocze sygnału zegarowego. Pamięci DDR2 budowane są w obudowach FBGA (ang. Fine-pitch Ball Grid Array). Mogą pracować w temperaturze do 70 °C. Moduły pamięci DDR2 nie są kompatybilne z modułami DDR. Obecnie DDR2 obsługiwane są zarówno przez procesory firmy Intel jak i AMD.

1.3. DDR3

1.3.1. DDR3 SDRAM (ang. Double Data Rate Synchronous Dynamic Random Access Memory (version 3)) – standard pamięci RAM typu SDRAM, będący rozwinięciem pamięci DDR i DDR2, stosowanych w komputerach jako pamięć operacyjna. Standard jest zdefiniowany w dokumencie "JEDEC Standard No. 79-3E". Pamięć DDR3 wykonywana jest w technologii 90 nm lub mniejszej, co umożliwia zastosowanie niższego napięcia (1,5 V w porównaniu z 1,8 V dla DDR2 i 2,5 V dla DDR). Dzięki temu pamięć DDR3 charakteryzuje się zmniejszonym poborem mocy o około 40% w stosunku do pamięci DDR2 oraz większą przepustowością w porównaniu do DDR2 i DDR. Istnieją także niskonapięciowe moduły DDR3L zasilane napięciem 1,35V oraz DDR3U zasilane napięciem 1,2V zdefiniowane w dokumentach "JEDEC Standard No. 79-3-1A.01" (DDR3L) oraz "JEDEC Standard No. 79-3-2" (DDR3U). Pamięci DDR3 nie są kompatybilne wstecz, tzn. nie współpracują z chipsetami obsługującymi DDR i DDR2. Moduły z pamięcią DIMM DDR3 mają przesunięte wcięcie w prawą stronę w stosunku do modułów DIMM DDR2. Obsługa pamięci DDR3 przez procesory została wprowadzona w 2007 roku w chipsetach płyt głównych przeznaczonych dla procesorów Intel oraz w 2009 roku w procesorach firmy AMD.

1.4. DDR4

1.4.1. DDR4 SDRAM (ang. Double Data Rate Synchronous Dynamic Random Access Memory (version 4)) – standard pamięci RAM typu SDRAM, będący rozwinięciem pamięci DDR, DDR2 i DDR3, stosowanych w komputerach jako pamięć operacyjna. Pamięć DDR4 umożliwia zastosowanie napięcia 1,2 V[1] w porównaniu z 1,5 V dla DDR3, 1,8 V dla DDR2 i 2,5 V dla DDR. Dzięki temu pamięć DDR4 charakteryzuje się zmniejszonym poborem mocy o około 20% w stosunku do pamięci DDR3 oraz większą przepustowością w porównaniu do DDR3, DDR2 i DDR. Pamięci DDR4 nie są kompatybilne wstecz, tzn. nie współpracują z chipsetami obsługującymi DDR, DDR2 i DDR3. Obsługa pamięci DDR4 przez procesory została wprowadzona w 2014 roku w chipsetach płyt głównych. Pamięci DDR4 są obsługiwane tylko przez płyty z chipsetem Intel X99[2][3] i gniazdem LGA 2011v3[4] oraz LGA 1151[5], a także przez wszystkie procesory z serii AMD Ryzen i płyty główne z gniazdem Socket AM4.

1.5. Klasyfikacja prędkości

1.6. Oznaczenia

1.6.1. CAS latency

1.6.1.1. czas utajenia (opóźnienie, czas dostępu), mierzony liczbą cykli zegara, jaki upływa między wysłaniem przez kontroler pamięci RAM żądania dostępu do określonej kolumny pamięci a otrzymaniem danych z tej kolumny przez kontroler. Im niższa jest wartość CAS latency (przy danej częstotliwości taktowania), tym mniej czasu potrzeba na pobranie danych z pamięci – inaczej mówiąc: „im krótszy czas utajenia, tym lepiej”. Czas utajenia wpływa bowiem na szybkość wykonywania w pamięci operacji, takich jak pobranie kolejnej instrukcji do wykonania przez procesor (odczyt, zapis, porównanie, przesunięcie bitowe, itp). Im dłuższy czas oczekiwania, tym dłużej procesor musi czekać na reakcję ze strony pamięci. Można przyspieszyć działanie pamięci stosując tzw. przeplot (ang. interleaving) co pozwala na rozdzielenie operacji zapisu na kilka banków pamięci, lub stosując pamięć podręczną (ang. cache) co umożliwia tymczasowe przechowywanie przetwarzanych danych w celu synchronizacji z modułami pamięci. Większość producentów pamięci dynamicznych podaje parametr CAS latency w nazwie konkretnego modelu. Niektórzy podają go bezpośrednio, np. CL5.

1.6.2. RANK

1.6.3. organizacja kości

1.6.4. RDIMM

1.6.5. LRDIMM

1.6.6. SO-DIMM

1.6.7. Single Side/ Double Side

1.7. Obsługa błędów

1.7.1. Non-oparity memory

1.7.2. Parity-memory/true parity

1.7.3. Error Checking and Correcting ECC/non-ECC

2. RAID

2.1. RAID 0

2.1.1. Polega na połączeniu ze sobą dwóch lub więcej dysków fizycznych tak, aby były widziane jako jeden dysk logiczny. Powstała w ten sposób przestrzeń ma rozmiar taki jak N × rozmiar najmniejszego z dysków, gdzie „N” oznacza liczbę dysków. Dane są przeplecione pomiędzy dyskami. Dzięki temu uzyskuje się znaczne przyspieszenie operacji zapisu i odczytu ze względu na równoległe wykonywanie operacji na wszystkich dyskach w macierzy. Warunkiem uzyskania takiego przyspieszenia jest operowanie na blokach danych lub sekwencjach bloków danych większych niż pojedynczy blok danych macierzy RAID 0 (ang. stripe unit size). Korzyści: przestrzeń wszystkich dysków jest widziana jako całość; przyspieszenie zapisu i odczytu w porównaniu do pojedynczego dysku. Wady: brak odporności na awarię dysków; N × rozmiar najmniejszego z dysków (zwykle łączy się jednakowe dyski); zwiększenie awaryjności – awaria pojedynczego dysku powoduje utratę wolumenu, a szansa na awarię jednego z N dysków rośnie wraz z N.

2.2. RAID 1

2.2.1. Polega na replikacji pracy dwóch lub więcej dysków fizycznych. Powstała przestrzeń ma rozmiar najmniejszego nośnika. RAID 1 jest zwany również lustrzanym (ang. mirroring). Szybkość zapisu i odczytu zależy od zastosowanej strategii: Zapis: zapis sekwencyjny na kolejne dyski macierzy – czas trwania operacji równy sumie czasów trwania wszystkich operacji; zapis równoległy na wszystkie dyski macierzy – czas trwania równy czasowi trwania operacji na najwolniejszym dysku. Odczyt: odczyt sekwencyjny z kolejnych dysków macierzy (ang. round-robin) – przy pewnej charakterystyce odczytów możliwe osiągnięcie szybkości takiej jak w RAID 0; odczyt wyłącznie ze wskazanych dysków – stosowane w przypadku znacznej różnicy w szybkościach odczytu z poszczególnych dysków. Korzyści: odporność na awarię N – 1 dysków przy N-dyskowej macierzy; możliwe zwiększenie szybkości odczytu; możliwe zmniejszenie czasu dostępu. Wady: możliwa zmniejszona szybkość zapisu; utrata pojemności (całkowita pojemność jest taka jak pojemność najmniejszego dysku).

2.3. RAID 5

2.3.1. Poziom piąty pracuje bardzo podobnie do poziomu czwartego z tą różnicą, iż bity parzystości nie są zapisywane na specjalnie do tego przeznaczonym dysku, lecz są rozpraszane po całej strukturze macierzy. RAID 5 umożliwia odzyskanie danych w razie awarii jednego z dysków przy wykorzystaniu danych i kodów korekcyjnych zapisanych na pozostałych dyskach (zamiast tak jak w RAID 3 na jednym specjalnie do tego przeznaczonym, co nieznacznie zmniejsza koszty i daje większą gwarancję bezpieczeństwa). RAID 5 oferuje większą prędkość odczytu niż RAID lustrzany (ang. mirroring), ale przy jego zastosowaniu nieznacznie spada prędkość zapisu. Poziom piąty jest bezpieczny dla danych – w razie awarii system automatycznie odbuduje utracone dane, zmniejszając jednak bieżącą wydajność macierzy. Spowolnienie ma charakter przejściowy, zaś jego czas zależy od obciążenia macierzy i pojemności dysku. Po zamontowaniu nowego dysku i odbudowaniu zawartości dysku wydajność macierzy wraca do normy. Macierz składa się z 3 lub więcej dysków. Przy macierzy liczącej N dysków jej pojemność wynosi N – 1 dysków. Przy łączeniu dysków o różnej pojemności otrzymuje się pojemność najmniejszego dysku razy N – 1. Sumy kontrolne danych dzielone są na N części, przy czym każda część składowana jest na innym dysku, a wyliczana jest z odpowiedniego fragmentu danych składowanych na pozostałych N-1 dyskach. Korzyści: odporność na awarię jednego dysku; zwiększona szybkość odczytu – porównywalna do macierzy RAID 0 złożonej z N-1 dysków. Wady: zmniejszona szybkość zapisu z powodu konieczności obliczania sum kontrolnych (eliminowana poprzez zastosowanie sprzętowego kontrolera RAID 5); w przypadku awarii dysku dostęp do danych jest spowolniony z powodu obliczeń danych na podstawie pozostałych danych i sum kontrolnych; odbudowa macierzy po wymianie dysku jest operacją kosztowną zarówno w sensie obliczeniowym jak i I/O, co powoduje spowolnienie operacji odczytu i zapisu. Wraz ze wzrostem pojemności pojedynczego dysku staje się to coraz większym problemem, gdyż rosnący czas odbudowy grupy RAID zwiększa ryzyko utraty danych w wyniku awarii kolejnego dysku w tym czasie.

2.4. RAID 0+1

2.4.1. Macierz realizowana jako RAID 1, którego elementami są macierze RAID 0. Macierz taka ma zarówno zalety macierzy RAID 0 – szybkość w operacjach zapisu i odczytu – jak i macierzy RAID 1 – zabezpieczenie danych w przypadku awarii pojedynczego dysku. Pojedyncza awaria dysku powoduje, że całość staje się w praktyce RAID 0. Potrzebne są minimum 4 dyski o tej samej pojemności. Korzyści: szybkość macierzy RAID 0; zyskuje się dużą dowolność w kwestii wielkości dysków fizycznych składających się na dyski logiczne. W szczególności: można stworzyć dwa dyski logiczne z trzech dysków. np 1 × 500 GB i 2 × 250 GB, a potem połączyć RAID 1. W efekcie RAID 0+1 daje 500 GB przestrzeni dyskowej; jeżeli na macierz składają się dyski o różnych wielkościach dysków logicznych (np. pierwszy dysk logiczny składa się z 2 dysków 500 GB, a drugi dysk logiczny z 4 dysków 200 GB), to w efekcie połączenia ich RAID 1 uzyskuje się 800 GB przestrzeni dyskowej RAID 0+1; znacznie prostsza w implementacji niż RAID 3, 5 i 6. Wady: tworzona jest lustrzana kopia dysku logicznego – jeżeli awarii ulega jeden dysk fizyczny, cały dysk logiczny który współtworzył zostaje wyłączony; większy koszt przechowywania danych niż w przypadku RAID 0, 2, 3, 4, 5, 6.

2.5. RAID 1_0

2.5.1. Nazywana także RAID 10. Macierz realizowana jako RAID 0, którego elementami są macierze RAID 1. W porównaniu do swojego poprzednika (RAID 0+1) realizuje tę samą koncepcję połączenia zalet RAID 0 (szybkość) i RAID 1 (bezpieczeństwo), lecz w odmienny sposób. Stripingowi podlegają relatywnie niewielkie bloki danych, które są zapisane na dwóch dyskach, dzięki czemu podczas wymiany uszkodzonego dysku odbudowywany jest tylko fragment całej macierzy. Korzyści: szybkość macierzy RAID 0; klonowanie następuje na poziomie poszczególnych dysków fizycznych, a nie logicznych. Awaria jednego dysku powoduje wyłączenie jedynie tego dysku, a nie całego dysku logicznego, jak to się dzieje w RAID 0+1; w szczególnym przypadku przetrwa awarię N – 1 dysków (N – liczba dysków fizycznych mirrorów) z każdego mirrora składającego się na RAID 0; znacznie prostsza w implementacji niż RAID 3, 5 i 6. Wady: RAID 1 powinien łączyć dyski o tej samej wielkości a najlepiej i szybkości zapisu. W przeciwnym wypadku uzyskuje się mirror o pojemności najmniejszego dysku i szybkości zapisu najwolniejszego. Znacząco potrafi to zwiększyć koszty w porównaniu do RAID 0+1; większy koszt przechowywania danych niż w przypadku RAID 0, 2, 3, 4, 5, 6. Współczynnik nadmiarowości wynosi tu 100% (potrzebne są 2 GB przestrzeni dyskowej na zapisanie 1 GB danych).

3. Hot Spare

3.1. Hot spare − mechanizm zabezpieczający używany w celu zapewnienia niezawodności konfiguracji systemów. Jest aktywnym i podłączonym zapasowym elementem działającego systemu. W przypadku awarii kluczowego elementu, urządzenie hot spare automatycznie przejmuje rolę urządzenia uszkodzonego.

3.2. Hot swap

3.2.1. Hot plugging lub Hot Swap - możliwość podłączania lub odłączania urządzeń peryferyjnych do komputera przy włączonym zasilaniu. Możliwość tę dają m.in. porty USB, FireWire, dyski twarde pracujące w standardzie co najmniej SATA-2 w trybie natywnym oraz karty pamięci Flash. Mimo to, większość portów, które teoretycznie nie obsługują hot pluggingu, działa przy podłączeniu "na gorąco", jednak nie zawsze prawidłowo. Przykładem takim może być klawiatura komputerowa, która traci informacje o powtarzaniu klawiszy i stanie diod. Wiele podzespołów w zaawansowanych serwerach, systemach przemysłowych czy wojskowych, ma możliwość hot pluggingu w celu poprawy czasu dostępności usług i niezawodności lub z innych przyczyn (np. rozbudowa systemu bez jego wyłączania). Wchodzą w to m.in. zasilacze, pamięć RAM, procesory, karty PCI (np. sieciowe), PCI-X, dyski SCSI oraz inne kontrolery, bez wyłączania systemu czy przerywania operacji na nim. W laptopach oprócz hot pluggingu portów, znanych z komputerów stacjonarnych (np. USB), zwykle istnieje też możliwość łatwego hot pluggingu kart PCMCIA, napędów optycznych (np. CD-ROM) czy monitorów zewnętrznych (choć nadal trzeba zachować pewne środki ostrożności celem uniknięcia awarii).

4. Klaster

4.1. Klaster komputerowy (ang. cluster) – grupa połączonych jednostek komputerowych, które współpracują ze sobą w celu udostępnienia zintegrowanego środowiska pracy. Komputery wchodzące w skład klastra (będące członkami klastra) nazywamy węzłami (ang. node). Jedną z najbardziej popularnych implementacji klastrów obliczeniowych jest klaster typu Beowulf gdzie rolę węzłów pełnią wydajne komputery klasy PC, pracujące pod kontrolą GNU/Linuksa oraz z zainstalowanym oprogramowaniem pozwalającym uzyskać przetwarzanie równoległe np. bibliotekami MPI, PVM. Od kwietnia 2015 roku najszybszy klaster komputerowy w Polsce to superkomputer Prometheus znajdujący się w zasobach obliczeniowych Akademickiego Centrum Komputerowego Cyfronet AGH[1].

4.2. Klaster HA

4.2.1. Rozwiązanie nosi nazwę klaster wysokiej dostępności albo klaster HA (skrót od High Availability). Aby zbudować klaster HA potrzebna jest macierz dyskowa i dwa serwery z MS-Windows Server 2012R2 lub 2016. Serwery nie muszą być identyczne, jak bywało w dawnych rozwiązaniach serwerów zapasowych.