340 likes | 531 Views
Pamięci Masowe. Historia, stan obecny i perspektywy rozwoju Jacek Piechociński. Pamięć masowa.
E N D
Pamięci Masowe Historia, stan obecny i perspektywy rozwoju Jacek Piechociński
Pamięć masowa Pamięć masowa (ang. mass memory, mass storage) – pamięć trwała, przeznaczona do długotrwałego przechowywania dużej ilości danych, w przeciwieństwie do pamięci operacyjnej. Pamięć masowa zapisywana jest na zewnętrznych nośnikach informacji. Nośniki informacji zapisywane i odczytywane są w urządzeniach zwanych napędami. • Nośniki magnetyczne: • dyski twarde - pamięć o dostępie sekwencyjnytaśmy magnetyczne - pamięć o dostępie sekwencyjnym, zapisywana i odczytywana w napędzie taśmowym • Napędy optyczne: • CD-ROM • płyty DVDpłyty Blu-ray Discpłyty HD DVD • Pamięci półprzewodnikowe (pozbawione części mechanicznych), współpracujące z różnymi złączami komunikacyjnymi: • pamięci USB • karty pamięci • SSD
Dyski twarde Dyski twarde są niezbędnym elementem wyposażenia każdego PC, przy czym jest to element istotnie wpływający nie tylko na całkowitą wydajność komputera, ale i na komfort jego używania. Zwłaszcza w kontekście coraz to bardziej „rozepchanych” pakietów oprogramowania. Poszczególne krążki dysku twardego pokryte są warstwą ferromagnetyku (dwu-lub trójtlenek żelaza) służącą do zapisu informacji. Krążki te (talerze) pozostają w zwykłych dyskach na stałe w obudowie i tworzą razem z głowicami zapisująco-odczytującymi praktycznie jedną całość. Twarde dyski z biegiem lat staja się coraz mniejsze, jeśli chodzi o rozmiary i coraz większe, jeśli chodzi o pojemność.
Historia • Rozwój technologiczny dysków twardych na przestrzeni ostatnich kilkudziesięciu lat, pod względem dynamiki można porównać chyba tylko z rozwojem układów scalonych. Za pierwszy dysk twardy uznaje się wytworzone przez koncern IBM urządzeni IBM 305 RAMAC (Randmo Access Method of Accounting and Control). Dysk ten „ujrzał” światło dzienne 13 września 1956 roku i mógł pomieścić zawrotną w tamtych czasach ilość danych: ok. 5MB na, bagatela, 50 talerzach o 20-calowej średnicy każdy! • Pierwszym dyskiem zastosowanym w komputerze PC, a dokładniej w firmowanych przez IBM komputerach IBM PC/XT, był opracowany przez firmę Seagate 5,25-calowy model ST-412. przy znacznie mniejszych od swojego „przodka” rozmiarach miał aż 10 MB pojemności. Ten pierwszy stosowany w PC dysk już znacznie bardziej przypominał obecnie produkowane modele. Głowice odczytujące i zapisujące dane na talerzach dysku nie dotykały bezpośrednio powierzchni nośnika, czyli podobnie jak w obecnie produkowanych modelach. Oczywiście na początku lat 80. nikt nie słyszał o tak obecnie popularnym w PC interfejsie SATA, a wszystkie parametry wydajnościowe dysku znacznie odbiegały od tego, co udaje się uzyskać, stosując obecnie produkowane modele. Jednak sama idea działania i założenia konstrukcyjne pozostały. • Na początku 1980 roku wprowadzono, wraz z rozpowszechnieniem komputerów osobistych, dostępne dla wszystkich dyski o średnicy 5,25 cala. Ich pojemność wynosiła od 5 do 10 MB. • Dziś napędy HDD wyposażone są w talerze o średnicy 3,5 cala. Ich pojemność liczona jest w gigabajtach.
Budowa dysku twardego Dyski twarde należą do urządzeń elektroniczno-mechanicznych. Chociaż szczegółowe dane dotyczące materiałów użytych przy ich produkcji są niewątpliwie ciekawym tematem, to jednak zdobycie ich często staje się utrudnione. Materiały mogą się różnić w zależności od modelu dysku/ producenta. Składy chemiczne są często modyfikowane, a dokładne parametry podzespołów utajniane przed konkurencją.
Obudowa Mamy tutaj do czynienia z różnymi kształtami obudowy, w głównej mierze zależnej od modelu i serii dysku. Różne firmy na przełomie lat wyrobiły sobie swoje zdanie na temat kształtu obudowy. Inna zależność to oczywiście ilość talerzy, która ma sztywny związek z grubością dysku i co się z tym wiąże wypukłością obudow. Materiał z którego wykonana jest obudowa na przełomie lat praktycznie pozostał ten sam. Jest to aluminium w mniej lub bardziej czystej postaci. Aluminium znane jest ze swoich właściwości pochłaniania wysokich temperatur. Chyba wszystkim nam wiadomo, że dyski podczas pracy wytwarzają dużo ciepła, a jego odprowadzenie jest tutaj ważnym czynnikiem, mającym związek z kondycją dysku. Podstawowe zadanie hermetycznie zamkniętej obudowy, to oczywiście ochrona wnętrza przed kurzem i innymi zanieczyszczeniami. Dodatkowo na pokrywie obudowy zawsze znajdziemy notkę producenta dotyczącą modelu, pojemności, daty produkcji, numeru seryjnego oraz innych parametrów.
Kontroler/elektronika Płytka elektroniczna znajdująca się na odwrocie dysku to centrum sterowania dyskiem. Tam znajduje się firmware/bios, który pełni rolę mediatora pomiędzy dyskiem a płytą główną. Firmware dysku może znajdować się kości w eeprom, może też być umiejscowiony w pamięci cache dysku. Praktycznie każdy parametr dysku (szybkość obrotowa, pojemność plus setki innych parametrów) jest tam właśnie zapisany. Dysk pozbawiony tego ważnego oprogramowania (uszkodzony firmware, niepoprawnie wpisany podczas ugrade-u) staje się całkowicie bezużyteczny. Kontroler dysku zakończony jest interfejsem komunikacyjnym (IDE,SATA,SCSI, etc) oraz zasilającym (molex). Tam, pod postacią zworek znajdziemy także możliwość ingerencji w tryb pracy dysku. Oprócz typowych układów sterowniczych (układ zarządzający sterowaniem silnika, głowicy) oraz zasilających na płytce elektronicznej znajduje się pamięć podręczna (tzw. cache). Zasilanie, które jest wymagane do wystartowania elektroniki, a co za tym idzie mechaniki dysku pobierane jest pośrednio lub bezpośrednio z zasilacza komputera.
Głowica Pomimo niewielkich rozmiarów, głowica jest jednym z droższych podzespołów znajdujących się w dysku twardym. • Do najbardziej znanych modeli głowic należą tzw. głowice cienko-foliowe. Dużo lżejsze od głowic ferromagnetycznych potrafią pracować znacznie bliżej talerzy dysku, przez co zwiększają niezawodność zapisu i odczytu. Postęp w miniaturyzacji elementów mechanicznych dysków twardych to skutek ciągłego pędu w stronę zwiększania gęstości zapisu. Niedaleka przyszłość pokaże, czy pomimo ostrej konkurencji ze strony nośników typu flash, pojawią się nowe standardy dysków twardych o znacznie mniejszych rozmiarach od najmniejszych (1 cal) obecnie dostępnych. • Z reguły każdy talerz dysku posiada dwie głowice zapisująco-odczytujące – jedna umieszczona jest nad talerzem, druga pod nim. Głowice te umieszczone są na poruszających się synchronicznie ramionach. Nad ruchem głowicy czuwa pozycjoner, którego zadaniem jest przemieszczanie głowic do wybranego cylindra lub w przypadku wyłączenia dysku – do położenia parkowania.
Talerze • Ze względu na wysokie temperatury osiągane przez dyski coraz częściej materiałem głównym jest szkło. Także wysoka gęstość zapisu oraz jego naturalna wytrzymałość sprawia, że to właśnie podkład szklany jest coraz częściej wykorzystywany przy produkcji talerzy dysków twardych. • Innym materiałem wykorzystywanym podczas produkcji talerzy są stopy aluminium. Na talerze naniesiona jest warstwa magnetyczna o wypolerowanej powierzchni, która umożliwia zapis oraz kasowanie danych. • Często, pomiędzy talerzem a warstwę magnetyczną nakłada się warstwę materiału izolacyjnego. Taki zabieg pozwala na jeszcze większe upakowanie danych w obrębie cala. W zależności od pojemności oraz stopnia zaawansowania technologicznego, dysk może zawierać 2, 3, 4, a nawet więcej talerzy.
Silnik • W obecnie produkowanych dyskach twardych dominują silniki oparte o układ magnetodynamiczny, które wyparły silniki krokowe oraz hydrodynamiczne. • Szybkość obrotowa w zależności o modelu dysku może osiągać nawet 15000 obrotów na minutę. Typowy dysk typu SATA, ATA osiąga prędkość rzędu 7200 obr/min. Wymagania użytkowników związane z cicha pracą dysku oraz jego szybkością stają się dla producentów sporym wyzwaniem. Dlatego też silniki dysków wspomagane są przez trwałe i w miarę ciche, nie popadające w nadmierne wibracje łożyska. Do najpopularniejszych dziś należą łożyska olejowe (FDB - Fluid Dynamic Bearing).
Najważniejsze parametry dysku twardego • Liczba talerzy – określa liczbę talerzy danego dysku. Uwaga! Liczba talerzy nie oznacza, że dane zapisywane są zawsze po obu stronach talerza dysku. Informację na ten temat otrzymamy porównując liczbę talerzy z liczbą głowic danego dysku. • Liczba głowic – określa, ile głowic zajmuje się odczytem/zapisem danych na talerzach. Liczba ta wskazuje także na to, czy wszystkie talerze są wykorzystywane obustronnie. Parzysta liczba głowic wskazuje na to, że dane mogą być przechowywane na każdej stronie każdego talerza dysku, natomiast nieparzysta – że jedna strona któregoś z talerzy dysku nie jest w ogóle wykorzystywana. • Interfejs – prawie wszystkie nowe dyski to urządzenia zdolne do pracy w najszybszym obecnie trybie Ultra DMA/66. Jedynie urządzenia ATA-4 nie mają tej funkcji. Mimo to każdy z dysków może pracować także w trybie PIO (przy wyłączonym transferze DMA). • Średni czas dostępu – parametr ten określa, w jakim czasie (średnio) od otrzymania przez dysk żądania odczytu/zapisu konkretnego obszaru nastąpi rozpoczęcie operacji. Im krótszy jest ten czas, tym dysk może zapewnić większą płynność odtwarzania, co może mieć znaczenie np. podczas nagrywania płyt CD-R/CD-RW, gdzie wymagany jest ciągły dopływ danych. • Transfer wewnętrzny – parametr ten określa w praktyce rzeczywisty transfer danego dysku. Im wartość ta jest wyższa, tym dany dysk jest szybszy. Jednak o tym, czy w danym komputerze będzie osiągał optimum swoich możliwości decyduje konfiguracja komputera (włączenie trybu DMA itp.).
Najważniejsze prametry dysku twardego c.d • Transfer zewnętrzny – właśnie ten parametr często jest używany w marketingowych określeniach i notatkach producentów. Tymczasem nie określa on faktycznej szybkości dysku, lecz przepustowość interfejsu. Oczywiście im ten parametr jest wyższy, tym lepiej – warto jednak pamiętać, że dyski o takim samym transferze zewnętrznym mogą w praktyce pracować z różną szybkością. • Liczba obrotów na min. – parametr określający, z jaką szybkością obracają się talerze danego dysku. Im szybkość obrotowa jest wyższa, tym więcej danych może być odczytywanych przez głowice. Pamiętajmy jednak, że ten parametr należy oceniać biorąc pod uwagę także gęstość zapisu. W praktyce jednak przy porównywaniu dysków o podobnej pojemności te z większą szybkością obrotową są zazwyczaj szybsze. • Cache – pamięć podręczna dysku twardego. Do tej pamięci buforowane są dane odczytywane i zapisywane na dysku. Im tej pamięci jest więcej, tym sprawniejszy jest proces przesyłu danych. • MTBF – akronim od zwrotu Mean Time Between Failure, co można przetłumaczyć jako średni czas międzyuszkodzeniowy. Parametr ten podawany jest w godzinach. Choć wartości, z jakimi spotkamy się w tej tabeli wyglądają na olbrzymie, to należy pamiętać, że czas ten jest wartością średnią ustaloną na podstawie testów dysków danej serii. Warto wiedzieć, że istnieje niezerowe prawdopodobieństwo, że dany dysk ulegnie uszkodzeniu już w pierwszym roku użytkowania. • Pobór mocy – zrozumienie tego parametru nie powinno sprawiać kłopotu, jednak jeżeli w naszym komputerze mamy stosunkowo słaby zasilacz, to może się okazać, że zakup dysku wymagającego stosunkowo dużo mocy może spowodować na komputerze, i tak już solidnie obsadzonym różnego typu sprzętem, przeciążenie zasilacza.
Interface dysków twardych Interfejs to urządzenie pozwalające na połączenie ze sobą dwóch innych urządzeń, które bez niego nie mogą ze sobą współpracować. Czasami jako interfejs określa się elementy wystające z urządzenia na zewnątrz, w które można włączyć inne urządzenia lub wtyczki. Aby dwa urządzenia mogły działać razem muszą mieć zgodne (kompatybilne) interfejsy. Interfejsem może być kabel łączący dwa urządzenia, ale zarówno wtyczki na tym kablu jak i pasujące do nich gniazda są również interfejsami. Dyski twarde na przełomie lat nie przechodziły jakichś spektakularnych innowacji na tym polu. Na dzień dzisiejszy standard wyznaczają trzy podstawowe interfejsy służące do połączenia dysku twardego z komputerem. • ATA (PATA) • SATA • SCSI ATA/PATA ciągle chyba najpopularniejszy interfejs stworzony do komunikacji z dyskami twardymi. • Stworzony przez firmę Compaq w roku 1983, z główną myślą zastosowania tego portu w komputerach klasy PC , później w komputerach Amiga. • Na początek trzeba wspomnieć o małym zamieszaniu powstałym na wskutek wprowadzenia nowego oznaczenia dysków – PATA. • PATA to nic innego, jak wstecznie zatwierdzona nazwa interfejsu ATA. Została ona wprowadzona po wypuszczeniu na rynek dysków SATA. Literę P, będącą skrótem od słowa Parallel dodano, aby podkreślić równoległy przesył danych. Zamieszanie powstało głównie dlatego, że tylko niektórzy producenci dysków zdecydowali się umieścić nazwę PATA na swoich produktach. • Od początku powstania standardu ATA (Advanced Technology Attachments) ulegał on ciągłym udoskonaleniom. Rzecz jasna chodziło w tym wszystkim nie tylko o zwiększenie szybkości transmisji danych, ale także o ich bezpieczeństwo.
Interface dysków twardych Ide • Od pojawienia się w roku 1983 standardu ATA do ATA5, a nawet ATA6 minęło sporo czasu; wprowadzane stopniowo zmiany objęły przede wszystkim: • Zwiększenie przepustowości magistrali do 133MB/s • Wykorzystanie 80-żyłowej taśmy sygnałowej w celu uniknięcia zakłóceń elektromagnetycznych wytwarzanych przez niektóre urządzenia • Umożliwienie zarządzania głośnością dysku (Acoustic Management) z możliwością wprowadzenia ręcznych zmian poprzez dodatkowe oprogramowanie serwisowe dysku, dostępne zazwyczaj na stronach producentów. • Zarządzanie energią oraz wykorzystanie technologii S.M.A.R.T. Technologia SMART, czyli monitoring oraz powiadamianie o błędach dysku w czasie jego pracy, jest funkcją wymagającą wsparcia ze strony Biosu płyty głównej • Korekcję i detekcję błędów CRC. Funkcja ta, znana z napędów CD, polega na zwolnieniu transmisji dysku w trakcie wystąpienia błędów podczas zapisu lub odczytu danych.
Interface dysków twardych Sata • SATA, czyli Serial Advanced Technology Attachment, jak sama nazwa wskazuje opiera się na technologii szeregowego przesyłu danych. • Oprócz wszystkich zalet ATA posiada dodatkowo: • Większą przepustowość przepływu danych: 150MB/s (SATA) oraz 300MB/s (SATA II). Transfer dotyczy wymiany danych pomiędzy kontrolerem a dyskiem. • Inną budowę przewodów transmisyjnych i zasilających, która z racji na mniejsze od ATA gabaryty pozwala na lepszą wentylację wnętrza komputera. Dodatkowo przewody transmisyjne SATA gwarantują bezproblemowy przesył danych przy odległości do 1.5 m. • Inny kontroler. Z racji zmiany interfejsu zmianie uległ także sam kontroler. W zależności od producenta płyty głównej mamy do czynienia z mniej lub bardziej udanymi kontrolerami SATA. • Dodatkowy kontroler na wyposażeniu płyty głównej nie jest żadnym novum, także obsługa macierzy dyskowych RAID jest tutaj na porządku dziennym. • Wsparcie dla technologii NCQ (Native Command Queuing), czyli optymalizację zapisu danych na dysku nazywaną kolejkowaniem poleceń/rozkazów. Funkcja ta wymaga wsparcia zarówno ze strony płyty głównej jak i samego dysku. Od dawna wykorzystywana w SCSI, od niedawna obecna na domowych komputerach polega w skrócie na uporządkowaniu w optymalny sposób poleceń płynących do dysku twardego - wszystko po to, aby zaoszczędzić czas potrzebny na skoki głowic dysku. Nie miałem okazji naocznie przekonać się o wzroście wydajności płynącej z NCQ, jednak według testów przeprowadzonych przez różne witryny internetowe jest to wzrost rzędu 5-10%. Bez wątpienia dużym plusem technologii NCQ jest zmniejszenie zużycia podzespołów mechanicznych dysku. • Bezzworkowa konfiguracja dysku. Z tym bywa różnie, osobiście jednak nie spotkałem się z potrzebą użycia zworek do dysków SATA. Brak zworek tłumaczy fakt podłączenia tylko jednego dysku pod jeden port SATA – w przypadku ATA mamy możliwość podłączenia dwóch urządzeń na jednym kanale • Mamy zatem do czynienia z przyszłościowym standardem: z możliwością szybszego przesyłu danych oraz kilkoma nowymi technologiami, których wykorzystanie zależne jest nie tylko od samego dysku, ale również od kontrolera i płyty głównej.
Scsi • Interfejs SCSI (skrót od Small Computer System Interface) został zatwierdzony przez amerykańską instytucję ANSI w 1986 roku. Interfejs ten w założeniu jego twórców został zaprojektowany z przeznaczeniem dla komputerów i serwerów przetwarzających duże ilości danych. Do największych zalet interfejsu SCSI należy: • możliwość obsługi nie tylko dysków twardych, ale również wszelkiego rodzaju urządzeń magazynujących dane (streamery, dyski magnetooptyczne, nagrywarki) oraz przetwarzających dane (skanery, profesjonalne aparaty cyfrowe, etc) • kolejkowanie danych, mające duży wpływ na wydajność systemu (szczególnie w przypadku, gdy do interfejsu SCSI podpiętych jest parę urządzeń) • możliwość podpięcia kilku urządzeń do jednego interfejsu SCSI (zarówno wewnętrznych jak i zewnętrznych) • odciążenie procesora głównego (obsługą urządzeń podpiętych do interfejsu SCSI zajmuje się kontroler SCSI) • możliwość budowy bardzo rozbudowanych macierzy dyskowych wyposażonych w kilkanaście dysków przy wykorzystaniu jednego kontrolera • obsługa funkcji hot-swap (możliwość odpięcia i podpięcia urządzenia podczas pracy systemu • Największą jego wadą jest cena. I właśnie wysoka cena (zarówno urządzeń jak i kontrolerów SCSI) jest główną przyczyną słabego rozpowszechnienia interfejsu SCSI w zastosowaniach biuro-domowych. Podobnie jak w przypadku kontrolerów SATA, przy zakupie urządzeń wyposażonych w interfejs SCSI bardzo istotną kwestią jest prawidłowy dobór kontrolera. Większość tanich kontrolerów (poza brakiem obsługi różnych funkcji, np hot-swap i innych) posiada podstawową, bardzo istotną wadę: wykorzystywanie procesora głównego komputera do obsługi i transferów danych podpiętych do interfejsu SCSI urządzeń, co w negatywny sposób wpływa na wydajność całego systemu. Dlatego przy inwestycji w system oparty na szynie SCSI, należy zwrócić szczególną uwagę na dobór dobrej klasy kontrolera SCSI. Niestety dobrej klasy kontroler to wydatek często przekraczający cenę przeciętnego komputera domowego (przykładowo, kontroler z średnio-wyższej półki SCSI Adaptec 2230SPL, potrafiący zarządzać łącznie 30 urządzeniami, wspomagany wydajnym procesorem i 128 MB cache'u kosztuje bagatela 2500zł).
Macierze dyskowe • RAID (ang. Redundant Array of Independent Disks, Nadmiarowa macierz niezależnych dysków) - polega na współpracy dwóch lub więcej dysków twardych w taki sposób, aby zapewnić dodatkowe możliwości, nieosiągalne przy użyciu jednego dysku. • RAID używa się w następujących celach: • zwiększenie niezawodności (odporność na awarie), • przyspieszenie transmisji danych, • powiększenie przestrzeni dostępnej jako jedna całość. • Podczas projektowania macierzy RAID uwzględniane są różnorodne zastosowania pamięci masowej. Przeznaczenie macierzy implikuje wybór odpowiednich technologii w zakresie dysków, kontrolerów, pamięci cache, sposobu przesyłania danych oraz poziomu niezawodności (odpowiedniej nadmiarowości/redundancji podzespołów i połączeń). W macierzach RAID stosuje się wszystkie produkowane obecnie rodzaje dysków twardych: ATA (wycofane), SATA, SCSI (wycofane), SAS, Fibre Channel. Dominują jednak rozwiązania oparte o serwerowe wersje SATA, SAS i FC. Rośnie udział dysków SSD w rozwiązaniach wymagających krótkiego czasu dostępu do rozproszonych danych.
Raid 0 striping • Ze względu na spory przyrost wydajności jest to najbardziej popularny tryb. • Kontroler wymaga od nas posiadania minimum dwóch dysków twardych, najlepiej o tej samej pojemności i szybkości obrotowej. Konfiguracja macierzy RAID0 odbywa się z poziomu biosu kontrolera i polega na ustawieniu trybu (RAID0), wielkości paska (stripe), po czym następuje niejako scalenie dwóch dysków w jedną całość. Tworząc macierz z dwóch dysków o pojemności 160GB uzyskamy jeden o pojemności 320GB. • Reszta to już sprawa podzielenia tak scalonego dysku na partycje i sformatowanie go. • Przyspieszenie pracy (kopiowanie/zapis) uzyskiwane jest poprzez równoczesny zapis pliku na dwóch dyskach. • Zarówno instalacja systemu, kopiowanie plików w obrębie dysku macierzowego, jak i z dysku dodatkowego na partycję w macierzy RAID0 przebiega znacznie szybciej. Duże znaczenie ma tutaj wielkość paska (stripe), ustawiana podczas konfiguracji macierzy. Wielkość tę definiujemy w zależności od tego, w jaki sposób używamy dysku - czy częściej przenosimy pliki o małych rozmiarach (txt, mp3), czy pliki o dużych gabarytach (avi, vob itp.). Pośrednim - optymalnym dla domowej konfiguracji parametrem jest tutaj 16kB. Podczas pracy na dużych plikach zaleca się ustawienie wielkości paska nawet na 32kB. • W zależności od możliwości kontrolera istnieje opcja konfiguracji RAID0 na czterech, ośmiu lub nawet większej ilości dysków twardych. Zwielokrotnienie dysków w macierzy równoznaczne jest z dalszym przyrostem ich wydajności. • Także tutaj dużą rolę odgrywają sterowniki, które mogą w znacznym stopniu rozpędzić naszego RAID-a. Do niedawna poważnym problemem było wyłączanie przez system Windows XP funkcji buforowania zapisu na dysku podłączonym pod dodatkowy kontroler. • Firma SiliconImage poradziła sobie z tym problemem za pomocą własnego oprogramowania, włączającego tą mającą duży wpływ na wydajność dysku funkcję. • Firma Seagate okryła się swego czasu wątpliwą sławą wypuszczając na rynek dyski, które niestety nie lubiły macierzy RAID0. Problem ten został rozwiązany wraz z nowymi seriami dysków. • Na koniec warto dodać kilka słów odnośnie niebezpieczeństw związanych z RAID0. • Praca w RAID0 wymaga stuprocentowej sprawności wszystkich dysków twardych w macierzy. Awaria jednego z nich równoznaczna jest z utratą danych na wszystkich partycjach objętych macierzą. W moim przypadku na macierzy RAID0 znajduje się tylko system, co jest chyba rozsądnym rozwiązaniem. Oczywiście tworzenie backupu ważnych danych obowiązuje każdego użytkownika, nie tylko pracującego z RAID0. • Innym problemem związanym ogólnie z macierzami RAID jest tzw. przywiązanie do kontrolera. Załóżmy przypadek uszkodzenia płyty głównej z kontrolerem SiliconImage 3122, na którym skonfigurowaliśmy macierz RAID. Zakup nowej płyty uwarunkowany jest wówczas posiadaniem przez płytę takiego samego kontrolera. Są oczywiście przypadki kompatybilności kontrolerów, jednak trudne do potwierdzenia w 100%. Inny kontroler RAID na płycie jest najczęściej równoznaczny z ponowną konfiguracją macierzy, a co za tym idzie – z utratą danych.
RAID1 - mirror • RAID1 to konfiguracja pozwalająca zabezpieczyć się przed utratą danych. Konfiguracja jest tutaj podobna do RAID0 z tym, że niestety połączenie dwóch dysków o pojemności 160GB daje nam nie 320, lecz 160GB przestrzeni dyskowej. Druga połowa (drugi dysk) służy za miejsce do backupu danych umieszczonych na dysku pierwszym. • Ta konfiguracja nie ma nic wspólnego z podniesieniem wydajności dysków, możliwe jest nawet odczucie spowolnienia pracy dysków w RAID1 z racji tworzenia kopii każdego zapisanego pliku. • W przypadku awarii jednego z dysków system + oprogramowanie + bios kontrolera skorzysta z dysku nr 2, chroniąc nas przed utratą danych. Także tutaj wymagana jest parzysta ilość dysków skonfigurowanych w macierz.
Dyski SSD • Czym jest SSD? • W skrócie można powiedzieć, że jest to urządzenie pamięci masowej, w którym rolę nośnika informacji pełnią półprzewodnikowe pamięci flash. W klasycznym dysku twardym informacje zapisane są na talerzach pokrytych nośnikiem magnetycznym. Obok widać zdjęcie rozebranych SSD i HDD obok siebie. • Zdecydowane większość użytkowników komputerów używa tego typu dysków nawet o tym nie wiedząc. Czym jest bowiem klasyczny pendrive, jak nie prostą wersją dysku SSD? Przez ostatnie kilka lat te urządzenia spopularyzowały się tak bardzo, że teraz nie wyobrażamy sobie bez nich codziennej pracy.
Dlaczego ssd lepszy niż hdd ? • 1. Ogromna odporność mechaniczna na urazy Dysk SSD składa się wyłącznie z układów pamięci flash oraz elektroniki pomocniczej. Klasyczne dyski twarde to skomplikowane mechanicznie urządzenia, co czyni je bardzo wrażliwymi na urazy mechaniczne. • 2. Bezgłośna praca Brak elementów ruchomych przekłada się nie tylko na wytrzymałość mechaniczną dysków SSD, ale także na ich w zasadziebezgłośną pracę. Osoby zajmujące się wyciszaniem komputerów wiedzą, że dysk twardy to element, który wyciszyć najtrudniej. Nie jest to jednak niewykonalne. • 3. Niskie zużycie energii To kolejna zaleta wywodząca się bezpośrednio z budowy dysku SSD. Nie znajdziemy prądożernych silników, tylko kilka układów elektronicznych. Wprawdzie te ostatnie także potrafią mieć apetyt na energię - patrz karty graficzne - ale w zdecydowanej większości przypadków nowoczesna elektronika jest po prostu bardzo energooszczędna. To właśnie dlatego dyski SSD rzadko potrzebują do pracy więcej niż 1W, a klasyczne dyski mechaniczne w skrajnych przypadkach - nawet 20x więcej. Wypośrodkowując te dane, przeciętny biurkowy dysk twardy potrzebuje do pracy około 10W. Z tej zalety skorzystają głównie osoby używające najmniejszych i najlżejszych notebooków. To właśnie tam każdy zaoszczędzony watt energii jest na wagę złota.Obniżenie zużycia energii przekłada się bowiem bezpośrednio na wydłużenie czasu pracy na baterii.
Dlaczego ssd lepszy niż hdd ? • 4. Niska temperatura pracy Klasyczny dysk twardy, szczególnie ten wyposażony w talerze wirujące z prędkością 10000 obr/min lub więcej, potrafi wydatnie dogrzać wnętrze komputera. Im więcej energii potrzebuje urządzenie do pracy, tym wydajniej trzeba je chłodzić. Takie niestety są realia. Dysk SSD potrzebuje mało energii, przez co prawie wcale się nie nagrzewa. To jest dość oczywiste.Po raz kolejny zyskują na tym właściciele komputerów przenośnych, szczególnie tych, które wyposażone są w wydajne dyski 7200 obr/min. W komputerach stacjonarnych dyski twarde mają raczej komfortowe warunki pracy, w przeciwieństwie do laptopów. W lecie dysk twardy w notebooku potrafi się rozgrzać do temperatury ponad 60 stopni. • 5. Bardzo mała waga Brak elementów mechanicznych to nie tylko oszczędność energii oraz zwiększona wytrzymałość, ale także bardzo niska waga. Jeśli szukacie komputera, który waży mniej niż 1 kg, niemal na pewno będziecie chcieli kupić model z dyskiem SSD. Żeby było śmieszniej, w zdecydowanej większości przypadków najcięższym elementem dysku SSD jest jego solidna obudowa. Dlatego niektórzy producenci mają w ofercie modele pozbawione obudowy - ze specjalnym przeznaczeniem do najlżejszych komputerów przenośnych. • 6. Czas dostępu Z czasem dostępu do danych niewiele da się już robić w przypadku klasycznych dysków twardych. Głowica może być pozycjonowana w określonym, nie mniejszym czasie, talerze wirują ze stałą prędkością. Wartości w okolicach 10-12 ms dla dysku 7200 obr/min to raczej szczyt tego, co obecna technika oferuje. Mamy co prawda mechanizmy, które w pewien sposób niwelują te ułomności (patrz NCQ), ale nadal jest to tylko obchodzenie problemuZupełnie inaczej jest w przypadku SSD. Tego typu dyski nie mają elementów ruchomych, przez co i dostęp do danych definiowany jest inaczej. Tutaj dużo zależy głównie od rodzaju pamięci flash, przy czym parametr ten w przypadku SSD jest przynajmniej o rząd wielkości mniejszy względem dysków talerzowych. Dyski SSD osiągają czasy dostępu na poziomie 12 µS - są w tym przypadku 1000x szybsze od klasycznego HDD.
Dlaczego ssd lepszy niż hdd • 7. Szybkość odczytu i zapisu danych • W przypadku talerzowych HDD szybkość odczytu i zapisu danych zależy od dwóch czynników. Pierwszym jest pojemność pojedynczego talerza - im jest on pojemniejszy, tym dysk wydajniejszy. Drugim jest szybkość obrotowa talerzy - im większa, tym dysk jest szybszy. Prędkość obrotowa w przypadku dysków biurkowych zazwyczaj wynosi 7200 obr/min, natomiast pojemność talerzy zwiększa się z generacji na generację. Dlatego szybkość odczytu i zapisu danych na dyskach twardych nadal się poprawia i ciągle jest miejsce na rozwój. • Ten sam parametr w przypadku dysków SSD zależy od wydajności kontrolera, ilości kostek pamięci flash - a przez to w zasadzie od pojemności dysku - oraz od rodzaju zastosowanych kostek flash. Niestety większość producentów nie podaje tych danych w sposób jawny, dlatego tutaj sprawa nieco się komplikuje. Kluczowym elementem jest rodzaj kontrolera flash, ponieważ jego kiepska implementacja oznacza bardzo niską wydajność.Warto pamiętać, że szybkość odczytu i zapisu danych w przypadku dysków magnetycznych idzie w zasadzie w parze. Zapis zawsze jest nieco wolniejszy od odczytu, ale z generacji na generację oba te parametry rosną. W przypadku SSD nie jest tak różowo. Z odczytem danych zazwyczaj nie ma żadnych problemów, ponieważ dyski SSD czytają dane przynajmniej tak samo szybko, a często znacznie szybciej niż klasyczny HDD. Z kolei zapis jest prawdziwą piętą achillesową tych urządzeń. Aby uzyskać wysokie prędkości zapisu danych, producent musi zastosować odpowiednio wydajny kontroler, dużą ilość kości flash oraz drogie kostki pamięci.Można zatem powiedzieć, że wydajność SSD w tym przypadku zależy mocno od... ceny. Im droższy dysk kupimy, tym będzie on wydajniejszy. Niestety jak na razie nie da się tego przeskoczyć. O ile nawet przeciętny SSD jest sporo wydajniejszy w odczycie od najszybszego dysku 7200 obr/min, to w przypadku zapisu jest dokładnie na odwrót.Zdecydowana większość dysków z talerzami magnetycznymi zapisuje dane szybciej niż przeciętny SSD.
Wady dysków ssd • 1. Niska pojemność Pojemnością obecna generacja dysków SSD nie grzeszy. Największe łatwo dostępne modele mają pojemność raptem 256 GB. Producenci co prawda obiecują, że do końca roku będziemy mogli kupić modele 320 albo nawet 512 GB, ale nadal w porównaniu do 2 TB HDD dzieli je przepaść. Niektórzy przełamują ten schemat i jeśli ktoś się uprze, to dostanie nawet 1TB SSD, ale jego cena przyprawia o zawrót głowy!Jedynym pocieszeniem na ten stan rzeczy jest fakt, iż technologia SSD bardzo dynamicznie się rozwija. Jeszcze dwa lata temu dominującą pojemnością było 32 GB, natomiast dziś jest to co najmniej 128 GB. Jeśli te urządzenia będą się rozwijać w takim samym tempie, to za 3-4 lata dorównają albo nawet przewyższą pojemnością obecne twardziele. Obecnie nie tylko ze względu na pojemność, ale także głównie ze względu na cenę, dyski SSD powinny być rozpatrywane jako bardzo szybkie urządzenia na aplikacje albo system operacyjny. Do składowania danych zdecydowanie się nie nadają. • 2. Wysoka cena Kolejnym koronnym argumentem przeciw technologii SSD jest wysoka cena tych urządzeń. Ale czy na pewno jest ona taka wysoka?Kiedy w czerwcu 2008 roku testowałem 32 GB dysk firm SanDisk, pisałem iż jest to sprzęt dla wybranych. Owe urządzenie w chwili testu kosztowało bagatela 3000 zł. Jak łatwo policzyć, było to prawie 94 zł za 1GB pojemności. Obecnie najtańsze dyski SSD 32 GB można kupić grubo poniżej 400 zł, czyli nieco ponad 12 zł za 1GB. Jeśli twój portfel jest nieco zasobniejszy, to w najtańszym modelu 128 GB 1 GB przestrzeni kosztuje już 8,5 zł. Technologia SSD rozwija się błyskawicznie. Równie błyskawicznie spadają ceny napędów SSD. Od mojego pierwszego testu SSD nie minęły jeszcze dwa lata, a cena za 1GB pojemności spadła ponad 11 krotnie!Dyski SSD nie są już towarem dla wybranych. Są towarem, na który może pozwolić sobie większość entuzjastów komputerów. Skoro bez problemu wydajemy 1000 zł na kartę graficzną, dlaczego nie możemy wydać 600 zł na dysk SSD?
Wydajność dysków ssd Testy praktyczne: system operacyjny, gry • 1. Instalacja systemu operacyjnego Pierwszym z testów praktycznych jakie wykonałem był pomiar czasu instalacji systemu operacyjnego. Do testów posłużył system, którego następnie używałem w testach syntetycznych, czyli Windows 7 Ultimate. Aby zminimalizować wpływ napędu CD oraz tzw. czynnik ludzki - instalacja była przeprowadzona ze specjalnie przygotowanego do tego testu serwera WDS, a całość przebiegała w trybie nienadzorowanym. Podany poniżej czas to okres, jaki minął od momentu rozpoczęcia ładowania instalatora przez PXE do końca ładowania systemu po ostatnim restarcie. Włącznie ze wszystkimi rebootami (ponowne uruchomienie komputera) jakie wystąpiły po drodze. • mniej=lepiej [sek] SSD 507 HDD 607 Instalacja systemu na SSD przebiegła o 17% szybciej. • 2. Ładowanie systemu operacyjnego Po instalacji Windows 7 Ultimate zmierzyłem czas jego startu. Tym razem pomiar został wykonany od momentu włączenia rozpoczęcia ładowania systemu do momentu aż na pulpicie przy kursorze zniknie znaczek zajętości. Zatem czas ten nie zawiera czasu incjalizacji BIOS-u komputera • mniej=lepiej [sek] SSD 22 HDD 31
Wydajnośc dysków ssd • 3. Czas instalacji dużej gry Oczywiście nie samym systemem operacyjnym człowiek żyje. Sprawdzimy jak instalują się gry. Po raz kolejny będzie to nasz nieśmiertelny Crysis i Crysis Warhead. Obie zrzucone do obrazu ISO i montowane przez siec - aby wyeliminować wpływ napędu CD na wyniki. Podane wyniki pokazują czas kopiowania plików, nie zawiera się w nim czas wpisywania klucza czy klikania Next, Next... ;-) • Crysis • mniej=lepiej [sek] SSD 262 HDD 347 Instalacja Crysis przebiegła o 25%, a Crysis Warhead o 5% szybciej na dysku SSD.
Pamięć holograficzna • Uzyskanie znacząco większej pojemności nośników niż obecnie popularne, wymaga zastosowania zupełnie innej techniki – np. holografii. Pomysł ten zrodził się już w roku 1963, gdy jeden z pracowników firmy Polaroid – Pieter J. van Heerden zaproponował trójwymiarowy zapis danych. • Najistotniejszymi elementami układu zapisująco/odczytującego są dwie wiązki laserowe padające na nośnik pamięciowy, jakim jest kryształ niobianu litu(domieszkowany atomami żelaza). Jedna z nich – węższa – to tzw. wiązka sygnałowa. Zawiera ona dane, jakie mają być zachowane w krysztale. Wiązka druga – zwana referencyjną odpowiada za miejsce w krysztale, w którym dane przesyłane wiązką sygnałową mają być zachowane. • W tego typu pamięciach nie istnieje pojęcie ścieżki danych. Pamięci holograficzne operują całymi stronami danych. Można sobie wyobrazić, że taki kryształek pokroimy na plasterki o grubości rzędu 100 mikrometrów każdy. Taki plasterek to właśnie strona danych przesyłanych przez wiązkę sygnałową. Zapis stronicowy daje dużo szybszy czas dostępu do danych, które są odczytywane analogicznie do zapisu (całymi stronami) dzięki odpowiedniemu pozycjonowaniu wiązki referencyjnej.
Nośniki holograficzne • Najpowszechniej stosowanym w laboratoriach nośnikiem danych był wspomniany już kryształ niobianu litu. Nie jest to jednak jedyna możliwa substancja pozwalająca na holograficzny zapis i odczyt danych. W 1994 firma DuPont wypuściła na rynek fotopolimer o obiecujących możliwościach. Najważniejszą innowacją jaką wnosił nowy materiał był fakt, że ów fotopolimer pod wpływem światła nie ulegał zmianom fotorefrakcyjnym (co ma miejsce w przypadku wzmiankowanego już kryształu) lecz przemianie chemicznej. Różnica polega na tym, że w przypadku fotorefrakcji, w krysztale dane są zapisywane poprzez odpowiednie rozdzielenie ładunków elektrycznych w strukturze kryształu, daje to możliwość ich późniejszej neutralizacji (co oznacza skasowanie zapisu). Natomiast naświetlanie (zapis danych) fotopolimeru wywoływało nieodwracalną reakcję fotochemiczną, co oznacza, że materiał ten nadaje się wyłącznie do tworzenia pamięci stałych (ROM).
Prace laboratoryjne • Warto zapoznać się też z niektórymi wynikami osiągniętymi przez naukowców w dziedzinie pamięci holograficznych. Np. w 1995 roku niejaki Pu z California Institute of Technology uzyskał gęstość zapisu 10 bitów na 1 mikrometr² dla dysku o powierzchni zwykłego krążka CD, lecz o grubości zaledwie 100 mikrometrów. Jeżeli zwiększy się grubość materiału holograficznego np. do ok. 1 mm, to gęstość zapisu powinna osiągnąć wartość 100 bitów/mikrometr kwadratowy. Taki dysk holograficzny byłby identyczny rozmiarami z dzisiejszymi płytami CD, lecz oferowałby pojemność rzędu 65 GB. • Kolejnym osiągnięciem są rezultaty prac naukowców wydziału fizyki University of Oregon. Udało im się zaobserwować w krysztale o nazwie Tm³+:YAG następujące wyniki: podczas zapisywania 1760-bitowej sekwencji z szybkością 20 Mbit/s osiągnięto gęstość około 8 Gbit/cal kwadratowy zaś transfer danych z zapisanego już nośnika określono na poziomie 1 Gbit/s. Tak olbrzymie wartości osiągnięto jednak w dalekich od domowych warunkach (niskie temperatury, specjalne soczewki itp.)
Perspektywy Holograficzne przechowywanie danych to teoretycznie prosta technika, znana w dodatku od wielu lat. Okazuje się jednak, że opracowanie powszechnie dostępnych produktów jest nadzwyczaj trudne. Szczególne wyzwanie stanowi opracowanie samego nośnika. Przed zapisem (naświetleniem) nośnik musi być przechowywany w światłoszczelnym opakowaniu -jak błona fotograficzna. Przed ponownym zapisem trzeba przywrócić mu światłoczułość. Nośników nie można tłoczyć jak płyt CD czy DVD. Utrudnia to ich masowe powielanie. Płyty DVD z materiałem holograficznym mają mieścić około 1 TB danych, ale pojawią się na rynku dopiero za trzy do pięciu lat. Nośniki oparte na niebieskim laserze, ale nie w technologii holograficznej, na przykład płyty DVD o pojemności 30 GB, powinny za to pojawić się już niebawem. Według opinii producentów i ekspertów, nośniki holograficzne nie zastąpią w przyszłości tradycyjnych - taśm, twardych dysków i magnetooptycznych, DVD. Nowa technika może wyprzeć tradycyjną jedynie w bardzo specjalistycznych zastosowaniach.