Skocz do zawartości
Mardok

Raid 0 A Wydajność

Rekomendowane odpowiedzi

To nie jest prawda. Spójrz na to tak: pada pojedyńczy dysk - tracisz dane, pada 1 z dysków - tracisz dane...

Właśnie to samo miałem pisać :)

 

Z tym dobieraniem rozwiązań do potrzeb to nie jest tak źle o ile potrzebujący zapyta np na takim forum jak nasze. Nie ma sensu wybierać wymyślnych rozwiązań dla przeciętnego użytkownika.

W 99% przypadków dla zwykłego gracza, oglądacza filmów słuchacza muzyki co okazjonalnie konwertuje filmy R0 (lub matrix) jest wystarczająco dobrym rozwiązaniem przyspieszającym. Jak doda do tego dodatkowy dysk poza macierzą będzie jeszcze lepiej.

Ktoś kto jest rozsądny, takie rzeczy jak zdjęcia i dokumenty backupuje na DVDRW lub dysk zewnętrzny niezależnie od posiadanego rozwiązania wewnątrz kompa. O tworzonej ważnej pracy nawet nie wspominając...

 

O zastosowania profesjonalne nikt się tu nie spiera bo do tego są rozwiązania "jedynie słuszne"

Edytowane przez rafa

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gość <account_deleted>

Zrób pomiary stoperem, czasu upływającego od wciśnięcia power do pokazania sie pulpitu oraz czasu uruchamiania

...

Tu warto zaznaczyć że drugie uruchmienie tej samej aplikacji po starcie systemu będzie zazwyczaj szybsze jeśli wydajność dysku odgrywa istotną rolę dla czasu startu danej aplikacji, czasami aplikacja uruchamia jakieś usługi systemowe przy pierwszym uruchomieniu

...zrob pomiary softem który pokazuje wydajność dysków a nie wszystkiego po trochu i razem do kupy ;) Szybkość ładowania programów nie ma wiele wspólnego z szybkością systemów dyskowych.

 

Natomiast "za drugim razem" soft jest ładowany głównie z cache systemu - to również nie ma nic wspólnego z dyskami ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

...

Natomiast "za drugim razem" soft jest ładowany głównie z cache systemu - to również nie ma nic wspólnego z dyskami ;)

Ma tyle wspólnego że pomiar czasu powinien byc dokonany dla pierwszego uruchamiania programu na potrzeby oceny

wydajności dysku w takim zadaniu. Włśnie dlatego że drugie uruchomienie zależy od stanu bufora systemu i czasy drugiego

uruchomienia mogą być niezależne lub bardzo słabo zależne od wydajności dysków. Za pierwszym uruchomieniaem

kod programu i dane muszą być wczytane do pamięci a za drugim uruchomieniem mogą w niej częściowo lub w całości przebywać.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Rafa, dlatego mam R0 + backup dysk + DVD RW :P

 

Zanim zestawiłem R0, na moich dwóch HD502HI oraz starszej barakudzie, miałem właśnie system na początku pierwszego dysku, aplikacje na początku drugiego a SWAP o stałym rozmiarze na początku trzeciego + TMP. Wszystkie 3 na NTFS z dużym klastrem (chociaż SWAP'a powinno się w zasadzie robić na FAT16, bo jest szybszy). To było idealne rozwiązanie, jeśli chodzi o wydajność systemu. Macierz R0 postawiłem z ciekawości i nie zauważyłem żadnych negatywnych efektów, o których było tu pisane, chociaż wideo nie obrabiam za dużo - czasem filmy po klatkowe.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ten R0 momentami mnie smieszy.

 

WD 640 AAKS >>> 5.5GB modow z rFactora >>> 2x500 R0. Przenosiny z C (pulpit) na partycje Raidiowa. Ile? Ledwo 20 minut , przeniesienie tego samego na D AAKSa zajeli mi moze cos kolo 2.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gość <account_deleted>

Firekage: masz jakiś problem w systemie. Różnice w przypadku kopiowania mogą być znaczne, czyli powiedzmy 1.5-2x ale nie 10x - tyle to wychodzi na SSD bez cache ;)

edit: czym kopiujesz? sprawdzałeś TCMD z poustawianymi napędami?

Edytowane przez tomazzi

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Różnice w przypadku kopiowania mogą być znaczne, czyli powiedzmy 1.5-2x ale nie 10x -

Kopiowanie zależy od transferów dysku ale czasem jeszcze bardziej od czasu potrzebnego na ruchy głowic.

Różnice w czasie kopiowania mogą być większe niż 10x zwłaszcza jeśli dyski są pofragmentowane i zapełnione w znacznym stopniu.

Popatrz na ten wynik pomiaru czasu kopiowania gdy pomiary były robione przy braku pofragmentowania:

http://twojepc.pl/artykuly.php?id=raid0_testy&strona=4

Czas kopiowania pliku 4.5 GB w ramach raid 0 wynikający z transferów to ok 38 sekund a na ruchy głowic potrzeba około 80 sekund.

Jeśli zwiększysz odległość na dysku pomiędzy plikami, lub dysk będzie pofragmentowany to czas potrzebny na ruchy głowic

wzrośnie wielokrotnie. Teoretycznie czas potrzebny na ruchy głowic przy klastrze 4 kilo i pliku 4.5 GB może przekroczyć 5 godzin :)

Teoretycznie bo w praktyce trudno by było osiągnąć takie pofragmentowanie dysku.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Firekage: masz jakiś problem w systemie. Różnice w przypadku kopiowania mogą być znaczne, czyli powiedzmy 1.5-2x ale nie 10x - tyle to wychodzi na SSD bez cache ;)

edit: czym kopiujesz? sprawdzałeś TCMD z poustawianymi napędami?

Total Comandera nie uzywalem. Zwykle kopiuj/wklej. Nie rozumiem o co chodzi z "ustawieniem napedow". Moje chodza w Sata 2 jesli o to pytasz ;)

 

Zabawne jest to , ze nie KAZDY plik potrafi mi tak kopiowac. Czasem poleci maxymalnie szybko z dysku na Raid , a czasem jak wyzej. Zreszta , teraz instalowalem cosik ponownie. WTCC 07 - czas instalowania bodajze 4GB wyniosl cos ostro ponad 15 minut...

 

Widze to tak jakby przty sporej ilosci plikow ten R0 po prostu zwalnial bo przeniesienie np. wiekszych plikow nie jest wolne.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Najprawdopodobniej wynika to z ustawienia paska na 32KB, przy takim podziale kontroler potrzebuje więcej czasu na pozbieranie tych 32KB kawałków i złożenie tego z powrotem do kupy. Niski Strap Size wygląda nieźle na benchmarkach (HD Tune, HD Tach), ale w praktyce jest wolniejszy, zwłaszcza jak mamy duże pliki, np. taki obraz ISO.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tylko , ze wyzszy strap na hostowkach powoduje "falowanie" w benczmarkach i jakos nie chce mi sie wierzyc , ze praktycznie bedzie szybciej.

Edytowane przez Firekage

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jedyne wyjście to sprawdzić to samemu ;)

 

 

Ja mam pytanko jeszcze

 

planuje postawić R0 i nie wiem co zrobić :(

 

obecnie mam jednego f1 322hj

mobo m2F [p45 + ich10r]

 

opcje są 3:

 

 

1. kupić jakieś 2 tanie ssd 32gb ~400-500 zł [jakie?]

2. -||- samsungi 2 -3 f3 + SQD

3. -||- -||- f1 322hj + SQD

 

która z tych 3 opcji będzie najbardziej opłacalna?

Edytowane przez Arni

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jedyne wyjście to sprawdzić to samemu ;)

Generalnie to jest jeden problem - nie robilem testow takich o jakich pisal np. Tomazzi , a zegarek + "na czuja" to slaba opcja przy przerabianiu Raida i robieniu backupa calosci 1TB ;)

 

Jesli padnie mi R0 ponownie tak postawie na innym stripe ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

...

Macierz R0 postawiłem z ciekawości i nie zauważyłem żadnych negatywnych efektów, o których było tu pisane, chociaż wideo nie obrabiam za dużo - czasem filmy po klatkowe.

W domowych zastosowaniach (poza obróbką filmów) najbardziej popularne w którym dwa oddzielne dyski będą miały przewagę

nad raid 0 to tuner telewizyjny z timeshift/ nagrywaniem.

Jeśli jest raid 0 to skoki głowic do pliku wymiany od pliku nagrywanego mogą powodować niemiłe przycinki, zwłaszcza gdy dysk

zostanie zapełniony i skoki są długie. Przy 2 oddzielnych dyskach i lokalizacji nagrania na innym dysku niż plik wymiany jest bez zamuleń.

Drugie (mniej popularne pomimo że konieczne do sprawnej pracy systemu na dłużej) to defragmentacja dysku.

Mając dwa oddzielne dyski mogę szybko przenieść większość danych z dysku który mam poddać defragmentacji na drugi dysk

a po defragmentacji przenieść jeszcze raz.

W przypadku raid0 konserwacja systemu plików w postaci defragmentacj zajmie dużo wiecej czasu.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tylko , ze wyzszy strap na hostowkach powoduje "falowanie" w benczmarkach i jakos nie chce mi sie wierzyc , ze praktycznie bedzie szybciej.

Wiele stron wcześniej (bliżej początku) pisałem o tym i podawałem linki do testów. Pasek 128kb mimo falowania w syntetykach jest minimalnie szybszy w praktyce.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wiele stron wcześniej (bliżej początku) pisałem o tym i podawałem linki do testów. Pasek 128kb mimo falowania w syntetykach jest minimalnie szybszy w praktyce.

Jaki to byl raid? Jak mowilem , ja mam "fake raida". Wiem , ze 128 to sie ustawia na takich pod np. pciex4.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

I dziala to poprawnie , wydajnie?

Tu jest trochę o roli rozmiaru strip:

http://www.purepc.pl/jak_zbudowac_i_przysp...dnik?page=0%2C3

Ale zastrzegam że nie zgadzam się z tezą ze wstępu tego artykułu czyli:

"Domowa macierz to najlepszy i najtańszy sposób na zwiększenie szybkości działania naszego systemu"

Najtańszym sposobem przyspieszenie systemu plików jest jego regularna defragmentacja poprzedzana czyszczeniem

dysku z plików zbytecznych. Stopień zapełnienia dysku i pofragmentowanie mają bardzo duży wpływ na wydajność.

Najprostszym z dopłatą to dołożenie drugiego dysku (nie musi być identyczny do pierwszego im pojemniejszy tym lepiej) i

przeniesienie na niego pliku stronicowania.

Raid 0 daje przyspieszenie transferu ale czas dostępu jest często istotniejszy niż transfer.

Odzdielny dysk bez łączenia w rajd pozwala na poprawę średniego czasu dostępu do pliku bo przy 2 oddzielnych dyskach możliwy jest

równoczesny dostęp do różnych plików i zmniejszenie zapełnienia dysku systemowego poprawiające transfer z niego.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gość <account_deleted>

Co do stripe size: niestety większość teorii na ten temat jest oparta na mitach oraz na ogólnych zasadach działania R0. Przede wszystkim każdy producent softu/sprzętu stosuje inne algorytmy, więc nie można powiedzieć, że ogólnie najlepszy jest pasek np. 32k albo 64. Algorytmy w większości nie są jawne, zmieniają się z wersji na wersję i dla każdego przypadku (i dla każdego zastosowania) inny rozmiar będzie optymalny. Poza tym oprócz stripe równie ważny jest rozmiar bloku systemu plików - a jeszcze bardziej stosunek block/stripe_size. Co jeszcze? a no na przykład taki niewinny z pozoru wpis "DisableLastAccessUpdate" - który powoduje że ntfs przyspiesza nawet o kilkaset % przy operacjach na małych plikach ;)

Ten sam kontroler, na tym samym pasku będzie szybszy w FAT32 niż w ntfs, itd, itp. Większość mysli że włączenie R0 w biosie załatwia sprawę - a to dopiero początek zabawy...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Co jeszcze? a no na przykład taki niewinny z pozoru wpis "DisableLastAccessUpdate" - który powoduje że ntfs przyspiesza nawet o kilkaset % przy operacjach na małych plikach ;)

To jest w rejestrsze czy mowisz moze o jakiejs zaawansowanej opcji w Adaptekach i ich konsoli?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gość <account_deleted>

[HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Control\FileSystem]

 

"NtfsDisableLastAccessUpdate"=dword:00000001

 

...pierwsza rzecz do wyłączenia w windzie (jeśli ktoś nie lubi FAT32 ;) )

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

[HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Control\FileSystem]

 

"NtfsDisableLastAccessUpdate"=dword:00000001

 

...pierwsza rzecz do wyłączenia w windzie (jeśli ktoś nie lubi FAT32 ;) )

Podziekowal , u mnie na XP jest 1. Rozumiem , ze 1 to wylaczenie wzgledem "disable"? Cos jak "disalbe = yes"? Edytowane przez Firekage

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

XbitLabs robi jeszcze testy FAT32 kontra NTFS dla partycji 32 GB.

http://www.xbitlabs.com/articles/storage/d...p_13.html#sect0

 

Sporo można uzyskać tuningując system pod kątem czasu dostępu do dysku bo transfery HDD rosną a czas dostępu stoi

praktycznie w miejscu od ponad 10 lat. W konsekwencji przy operacjach na plikach nie wymagających dużych transferów

a wymagających dużej ilości długich seek czas operacji jest taki sam jak 12 lat temu.

Dysk IBM Deskstar 14GXP z 1997 r. do domowego komputerka miał obroty 7200 i seek 9.5 ms a transfer max kilkanaście MB/s

Transfery wzrosły około 10 razy od 1997 r.a czas dostępu do HDD niemal stoi w miejscu.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gość <account_deleted>

W konsekwencji przy operacjach na plikach nie wymagających dużych transferów

a wymagających dużej ilości długich seek czas operacji jest taki sam jak 12 lat temu.

Dysk IBM Deskstar 14GXP z 1997 r. do domowego komputerka miał obroty 7200 i seek 9.5 ms a transfer max kilkanaście MB/s

Transfery wzrosły około 10 razy od 1997 r.a czas dostępu do HDD niemal stoi w miejscu.

Czasy dostępu w HDD są ściśle związane z prędkością obrotową, dlatego raczej nie jest możliwe aby przy danej prędkości skrócić najgorszy czas np 2x - ale: dawniej dyski potrzebowały znacznie więcej czasu na synchronizację głowica->track, miały mniej cache i mniejszą gęstość zapisu. Gęstość zapisu czyni cuda - obecnie dysk zmienia ścieżki znacznie rzadziej niż starsze konstrukcje, co oznacza że dla większości operacji średnie czasy są znacznie krótsze niż dawniej.

 

Pisałeś też o fragmentacji: od dawna istnieją systemy które nie cierpią z powodu tego zjawiska (tak nawiasem mówiąc jest ich większość, tylko żaden nie jest własnością M$ :lol: )

 

Firekage: no to masz dobrze ustawione ;) co do TCMD - jest taka zakładka w opcjach, w której określa się jakie litery woluminów należą do poszczególnych dysków (o ile pamiętam: settings/operation/"following letters are on the same physical drive" - coś w ten deseń ;) )

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Czasy dostępu w HDD są ściśle związane z prędkością obrotową, dlatego raczej nie jest możliwe aby przy danej prędkości skrócić najgorszy czas np 2x -

Skrócenie 2x latency do odczytu bez zwiększania prędkości obrotowej to nie problem konstrukcyjny jak dla mnie i to w połączeniu

z istotnym obniżeniem ryzyka nienaprawialnego błędu odczytu , gorzej z zapisem bo to wymagało by umieszczenia

nad jedną ścieżką symetrycznie 2 głowic zapisujących.

Praktyczne skrócenie średniego czasu dostępu w systemie Windows można osiągnąć redukując ilość wykonywanych seek.

Konkretnie poprzez zwiekszenie ilośći dysków i dobranie w miarę możliwości odpowiedniej lokalizacji plików tak aby pliki z wymaganym

równoczesnym dostępem były na innych dyskach. Do tego rzecz jasna czyszczenie i defragmentowanie dysków.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Najprostszym z dopłatą to dołożenie drugiego dysku (nie musi być identyczny do pierwszego im pojemniejszy tym lepiej) i

przeniesienie na niego pliku stronicowania.

Raid 0 daje przyspieszenie transferu ale czas dostępu jest często istotniejszy niż transfer.

Odzdielny dysk bez łączenia w rajd pozwala na poprawę średniego czasu dostępu do pliku bo przy 2 oddzielnych dyskach możliwy jest

równoczesny dostęp do różnych plików i zmniejszenie zapełnienia dysku systemowego poprawiające transfer z niego.

Jaki obecnie dysk będzie najodpowiedniejszy dla domowych zastosowań jeżeli chodzi o przeznaczenie go tylko na plik stronicowania? Zakładam, że podstawowy dysk to 1TB.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jaki obecnie dysk będzie najodpowiedniejszy dla domowych zastosowań jeżeli chodzi o przeznaczenie go tylko na plik stronicowania? Zakładam, że podstawowy dysk to 1TB.

Najtańszy dysk z podobnym max transferem i prędkością obrotową jak ten główny i nie ma konieczności aby był przeznaczony wyłącznie na

plik stronicowania. Na plik stronicowania wystarczy mała partycja na początku dysku, resztę można przeznaczyć na niezbyt często

używane pliki.

Najwydajniejsze to by było coś w rodzaju ACard ANS-9010 a czy odpowiednie to wątpię bo drogie trudnodostępne i

pobiera więcej prądu niż standardowy dysk.

http://techreport.com/articles.x/16255

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Dodaj odpowiedź do tematu...

×   Wklejono zawartość z formatowaniem.   Przywróć formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

Ładowanie


×
×
  • Dodaj nową pozycję...