rafa Opublikowano 4 Września 2009 Zgłoś Opublikowano 4 Września 2009 (edytowane) To nie jest prawda. Spójrz na to tak: pada pojedyńczy dysk - tracisz dane, pada 1 z dysków - tracisz dane...Właśnie to samo miałem pisać :) Z tym dobieraniem rozwiązań do potrzeb to nie jest tak źle o ile potrzebujący zapyta np na takim forum jak nasze. Nie ma sensu wybierać wymyślnych rozwiązań dla przeciętnego użytkownika. W 99% przypadków dla zwykłego gracza, oglądacza filmów słuchacza muzyki co okazjonalnie konwertuje filmy R0 (lub matrix) jest wystarczająco dobrym rozwiązaniem przyspieszającym. Jak doda do tego dodatkowy dysk poza macierzą będzie jeszcze lepiej. Ktoś kto jest rozsądny, takie rzeczy jak zdjęcia i dokumenty backupuje na DVDRW lub dysk zewnętrzny niezależnie od posiadanego rozwiązania wewnątrz kompa. O tworzonej ważnej pracy nawet nie wspominając... O zastosowania profesjonalne nikt się tu nie spiera bo do tego są rozwiązania "jedynie słuszne" Edytowane 4 Września 2009 przez rafa Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość <account_deleted> Opublikowano 4 Września 2009 Zgłoś Opublikowano 4 Września 2009 Zrób pomiary stoperem, czasu upływającego od wciśnięcia power do pokazania sie pulpitu oraz czasu uruchamiania ... Tu warto zaznaczyć że drugie uruchmienie tej samej aplikacji po starcie systemu będzie zazwyczaj szybsze jeśli wydajność dysku odgrywa istotną rolę dla czasu startu danej aplikacji, czasami aplikacja uruchamia jakieś usługi systemowe przy pierwszym uruchomieniu ...zrob pomiary softem który pokazuje wydajność dysków a nie wszystkiego po trochu i razem do kupy ;) Szybkość ładowania programów nie ma wiele wspólnego z szybkością systemów dyskowych. Natomiast "za drugim razem" soft jest ładowany głównie z cache systemu - to również nie ma nic wspólnego z dyskami ;) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość dwaIP Opublikowano 4 Września 2009 Zgłoś Opublikowano 4 Września 2009 ... Natomiast "za drugim razem" soft jest ładowany głównie z cache systemu - to również nie ma nic wspólnego z dyskami ;) Ma tyle wspólnego że pomiar czasu powinien byc dokonany dla pierwszego uruchamiania programu na potrzeby oceny wydajności dysku w takim zadaniu. Włśnie dlatego że drugie uruchomienie zależy od stanu bufora systemu i czasy drugiego uruchomienia mogą być niezależne lub bardzo słabo zależne od wydajności dysków. Za pierwszym uruchomieniaem kod programu i dane muszą być wczytane do pamięci a za drugim uruchomieniem mogą w niej częściowo lub w całości przebywać. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
qhash Opublikowano 4 Września 2009 Zgłoś Opublikowano 4 Września 2009 Rafa, dlatego mam R0 + backup dysk + DVD RW :P Zanim zestawiłem R0, na moich dwóch HD502HI oraz starszej barakudzie, miałem właśnie system na początku pierwszego dysku, aplikacje na początku drugiego a SWAP o stałym rozmiarze na początku trzeciego + TMP. Wszystkie 3 na NTFS z dużym klastrem (chociaż SWAP'a powinno się w zasadzie robić na FAT16, bo jest szybszy). To było idealne rozwiązanie, jeśli chodzi o wydajność systemu. Macierz R0 postawiłem z ciekawości i nie zauważyłem żadnych negatywnych efektów, o których było tu pisane, chociaż wideo nie obrabiam za dużo - czasem filmy po klatkowe. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość Firekage Opublikowano 5 Września 2009 Zgłoś Opublikowano 5 Września 2009 Ten R0 momentami mnie smieszy. WD 640 AAKS >>> 5.5GB modow z rFactora >>> 2x500 R0. Przenosiny z C (pulpit) na partycje Raidiowa. Ile? Ledwo 20 minut , przeniesienie tego samego na D AAKSa zajeli mi moze cos kolo 2. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość <account_deleted> Opublikowano 5 Września 2009 Zgłoś Opublikowano 5 Września 2009 (edytowane) Firekage: masz jakiś problem w systemie. Różnice w przypadku kopiowania mogą być znaczne, czyli powiedzmy 1.5-2x ale nie 10x - tyle to wychodzi na SSD bez cache ;) edit: czym kopiujesz? sprawdzałeś TCMD z poustawianymi napędami? Edytowane 5 Września 2009 przez tomazzi Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
KUBA TM Opublikowano 5 Września 2009 Zgłoś Opublikowano 5 Września 2009 Niedlugo dorzuce trzeciego HD103UJ ;) wyniki soon ;) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość dwaIP Opublikowano 5 Września 2009 Zgłoś Opublikowano 5 Września 2009 Różnice w przypadku kopiowania mogą być znaczne, czyli powiedzmy 1.5-2x ale nie 10x -Kopiowanie zależy od transferów dysku ale czasem jeszcze bardziej od czasu potrzebnego na ruchy głowic. Różnice w czasie kopiowania mogą być większe niż 10x zwłaszcza jeśli dyski są pofragmentowane i zapełnione w znacznym stopniu. Popatrz na ten wynik pomiaru czasu kopiowania gdy pomiary były robione przy braku pofragmentowania: http://twojepc.pl/artykuly.php?id=raid0_testy&strona=4 Czas kopiowania pliku 4.5 GB w ramach raid 0 wynikający z transferów to ok 38 sekund a na ruchy głowic potrzeba około 80 sekund. Jeśli zwiększysz odległość na dysku pomiędzy plikami, lub dysk będzie pofragmentowany to czas potrzebny na ruchy głowic wzrośnie wielokrotnie. Teoretycznie czas potrzebny na ruchy głowic przy klastrze 4 kilo i pliku 4.5 GB może przekroczyć 5 godzin :) Teoretycznie bo w praktyce trudno by było osiągnąć takie pofragmentowanie dysku. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość Firekage Opublikowano 5 Września 2009 Zgłoś Opublikowano 5 Września 2009 Firekage: masz jakiś problem w systemie. Różnice w przypadku kopiowania mogą być znaczne, czyli powiedzmy 1.5-2x ale nie 10x - tyle to wychodzi na SSD bez cache ;) edit: czym kopiujesz? sprawdzałeś TCMD z poustawianymi napędami? Total Comandera nie uzywalem. Zwykle kopiuj/wklej. Nie rozumiem o co chodzi z "ustawieniem napedow". Moje chodza w Sata 2 jesli o to pytasz ;) Zabawne jest to , ze nie KAZDY plik potrafi mi tak kopiowac. Czasem poleci maxymalnie szybko z dysku na Raid , a czasem jak wyzej. Zreszta , teraz instalowalem cosik ponownie. WTCC 07 - czas instalowania bodajze 4GB wyniosl cos ostro ponad 15 minut... Widze to tak jakby przty sporej ilosci plikow ten R0 po prostu zwalnial bo przeniesienie np. wiekszych plikow nie jest wolne. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Matthaios84 Opublikowano 5 Września 2009 Zgłoś Opublikowano 5 Września 2009 Najprawdopodobniej wynika to z ustawienia paska na 32KB, przy takim podziale kontroler potrzebuje więcej czasu na pozbieranie tych 32KB kawałków i złożenie tego z powrotem do kupy. Niski Strap Size wygląda nieźle na benchmarkach (HD Tune, HD Tach), ale w praktyce jest wolniejszy, zwłaszcza jak mamy duże pliki, np. taki obraz ISO. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość Firekage Opublikowano 5 Września 2009 Zgłoś Opublikowano 5 Września 2009 (edytowane) Tylko , ze wyzszy strap na hostowkach powoduje "falowanie" w benczmarkach i jakos nie chce mi sie wierzyc , ze praktycznie bedzie szybciej. Edytowane 5 Września 2009 przez Firekage Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Arni Opublikowano 5 Września 2009 Zgłoś Opublikowano 5 Września 2009 (edytowane) Jedyne wyjście to sprawdzić to samemu ;) Ja mam pytanko jeszcze planuje postawić R0 i nie wiem co zrobić :( obecnie mam jednego f1 322hj mobo m2F [p45 + ich10r] opcje są 3: 1. kupić jakieś 2 tanie ssd 32gb ~400-500 zł [jakie?] 2. -||- samsungi 2 -3 f3 + SQD 3. -||- -||- f1 322hj + SQD która z tych 3 opcji będzie najbardziej opłacalna? Edytowane 5 Września 2009 przez Arni Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość Firekage Opublikowano 5 Września 2009 Zgłoś Opublikowano 5 Września 2009 Jedyne wyjście to sprawdzić to samemu ;)Generalnie to jest jeden problem - nie robilem testow takich o jakich pisal np. Tomazzi , a zegarek + "na czuja" to slaba opcja przy przerabianiu Raida i robieniu backupa calosci 1TB ;) Jesli padnie mi R0 ponownie tak postawie na innym stripe ;) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość dwaIP Opublikowano 5 Września 2009 Zgłoś Opublikowano 5 Września 2009 ... Macierz R0 postawiłem z ciekawości i nie zauważyłem żadnych negatywnych efektów, o których było tu pisane, chociaż wideo nie obrabiam za dużo - czasem filmy po klatkowe. W domowych zastosowaniach (poza obróbką filmów) najbardziej popularne w którym dwa oddzielne dyski będą miały przewagę nad raid 0 to tuner telewizyjny z timeshift/ nagrywaniem. Jeśli jest raid 0 to skoki głowic do pliku wymiany od pliku nagrywanego mogą powodować niemiłe przycinki, zwłaszcza gdy dysk zostanie zapełniony i skoki są długie. Przy 2 oddzielnych dyskach i lokalizacji nagrania na innym dysku niż plik wymiany jest bez zamuleń. Drugie (mniej popularne pomimo że konieczne do sprawnej pracy systemu na dłużej) to defragmentacja dysku. Mając dwa oddzielne dyski mogę szybko przenieść większość danych z dysku który mam poddać defragmentacji na drugi dysk a po defragmentacji przenieść jeszcze raz. W przypadku raid0 konserwacja systemu plików w postaci defragmentacj zajmie dużo wiecej czasu. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
rafa Opublikowano 5 Września 2009 Zgłoś Opublikowano 5 Września 2009 Tylko , ze wyzszy strap na hostowkach powoduje "falowanie" w benczmarkach i jakos nie chce mi sie wierzyc , ze praktycznie bedzie szybciej.Wiele stron wcześniej (bliżej początku) pisałem o tym i podawałem linki do testów. Pasek 128kb mimo falowania w syntetykach jest minimalnie szybszy w praktyce. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość Firekage Opublikowano 5 Września 2009 Zgłoś Opublikowano 5 Września 2009 Wiele stron wcześniej (bliżej początku) pisałem o tym i podawałem linki do testów. Pasek 128kb mimo falowania w syntetykach jest minimalnie szybszy w praktyce.Jaki to byl raid? Jak mowilem , ja mam "fake raida". Wiem , ze 128 to sie ustawia na takich pod np. pciex4. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
rafa Opublikowano 6 Września 2009 Zgłoś Opublikowano 6 Września 2009 Taki jak 99% z nas i wogóle w użyciu domowym. Oczywiście że fake raid. Powiem Ci ciekawostke, kontroler HighPoint który mam (softowo/sprzętowy bez pamięci podręcznej) ma opcje tylko 512kb... Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość Firekage Opublikowano 6 Września 2009 Zgłoś Opublikowano 6 Września 2009 I dziala to poprawnie , wydajnie? Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość dwaIP Opublikowano 7 Września 2009 Zgłoś Opublikowano 7 Września 2009 I dziala to poprawnie , wydajnie?Tu jest trochę o roli rozmiaru strip: http://www.purepc.pl/jak_zbudowac_i_przysp...dnik?page=0%2C3 Ale zastrzegam że nie zgadzam się z tezą ze wstępu tego artykułu czyli: "Domowa macierz to najlepszy i najtańszy sposób na zwiększenie szybkości działania naszego systemu" Najtańszym sposobem przyspieszenie systemu plików jest jego regularna defragmentacja poprzedzana czyszczeniem dysku z plików zbytecznych. Stopień zapełnienia dysku i pofragmentowanie mają bardzo duży wpływ na wydajność. Najprostszym z dopłatą to dołożenie drugiego dysku (nie musi być identyczny do pierwszego im pojemniejszy tym lepiej) i przeniesienie na niego pliku stronicowania. Raid 0 daje przyspieszenie transferu ale czas dostępu jest często istotniejszy niż transfer. Odzdielny dysk bez łączenia w rajd pozwala na poprawę średniego czasu dostępu do pliku bo przy 2 oddzielnych dyskach możliwy jest równoczesny dostęp do różnych plików i zmniejszenie zapełnienia dysku systemowego poprawiające transfer z niego. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
rafa Opublikowano 7 Września 2009 Zgłoś Opublikowano 7 Września 2009 I dziala to poprawnie , wydajnie?Tak, jedyny powód a właściwie dwa dla których przestałem używać to strasznie długi czas bootowania (samej inicjalizacji kontrolera) i limit transferu 260MB/s Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość <account_deleted> Opublikowano 7 Września 2009 Zgłoś Opublikowano 7 Września 2009 Co do stripe size: niestety większość teorii na ten temat jest oparta na mitach oraz na ogólnych zasadach działania R0. Przede wszystkim każdy producent softu/sprzętu stosuje inne algorytmy, więc nie można powiedzieć, że ogólnie najlepszy jest pasek np. 32k albo 64. Algorytmy w większości nie są jawne, zmieniają się z wersji na wersję i dla każdego przypadku (i dla każdego zastosowania) inny rozmiar będzie optymalny. Poza tym oprócz stripe równie ważny jest rozmiar bloku systemu plików - a jeszcze bardziej stosunek block/stripe_size. Co jeszcze? a no na przykład taki niewinny z pozoru wpis "DisableLastAccessUpdate" - który powoduje że ntfs przyspiesza nawet o kilkaset % przy operacjach na małych plikach ;) Ten sam kontroler, na tym samym pasku będzie szybszy w FAT32 niż w ntfs, itd, itp. Większość mysli że włączenie R0 w biosie załatwia sprawę - a to dopiero początek zabawy... Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość Firekage Opublikowano 7 Września 2009 Zgłoś Opublikowano 7 Września 2009 Co jeszcze? a no na przykład taki niewinny z pozoru wpis "DisableLastAccessUpdate" - który powoduje że ntfs przyspiesza nawet o kilkaset % przy operacjach na małych plikach ;)To jest w rejestrsze czy mowisz moze o jakiejs zaawansowanej opcji w Adaptekach i ich konsoli? Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość <account_deleted> Opublikowano 7 Września 2009 Zgłoś Opublikowano 7 Września 2009 [HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Control\FileSystem] "NtfsDisableLastAccessUpdate"=dword:00000001 ...pierwsza rzecz do wyłączenia w windzie (jeśli ktoś nie lubi FAT32 ;) ) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Mardok Opublikowano 7 Września 2009 Zgłoś Opublikowano 7 Września 2009 [HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Control\FileSystem] "NtfsDisableLastAccessUpdate"=dword:00000001 ...pierwsza rzecz do wyłączenia w windzie (jeśli ktoś nie lubi FAT32 ;) ) Na W7 i chyba na Vista też domyślnie na 1 ;) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość Firekage Opublikowano 7 Września 2009 Zgłoś Opublikowano 7 Września 2009 (edytowane) [HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Control\FileSystem] "NtfsDisableLastAccessUpdate"=dword:00000001 ...pierwsza rzecz do wyłączenia w windzie (jeśli ktoś nie lubi FAT32 ;) ) Podziekowal , u mnie na XP jest 1. Rozumiem , ze 1 to wylaczenie wzgledem "disable"? Cos jak "disalbe = yes"? Edytowane 7 Września 2009 przez Firekage Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość dwaIP Opublikowano 7 Września 2009 Zgłoś Opublikowano 7 Września 2009 XbitLabs robi jeszcze testy FAT32 kontra NTFS dla partycji 32 GB. http://www.xbitlabs.com/articles/storage/d...p_13.html#sect0 Sporo można uzyskać tuningując system pod kątem czasu dostępu do dysku bo transfery HDD rosną a czas dostępu stoi praktycznie w miejscu od ponad 10 lat. W konsekwencji przy operacjach na plikach nie wymagających dużych transferów a wymagających dużej ilości długich seek czas operacji jest taki sam jak 12 lat temu. Dysk IBM Deskstar 14GXP z 1997 r. do domowego komputerka miał obroty 7200 i seek 9.5 ms a transfer max kilkanaście MB/s Transfery wzrosły około 10 razy od 1997 r.a czas dostępu do HDD niemal stoi w miejscu. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość <account_deleted> Opublikowano 7 Września 2009 Zgłoś Opublikowano 7 Września 2009 W konsekwencji przy operacjach na plikach nie wymagających dużych transferów a wymagających dużej ilości długich seek czas operacji jest taki sam jak 12 lat temu. Dysk IBM Deskstar 14GXP z 1997 r. do domowego komputerka miał obroty 7200 i seek 9.5 ms a transfer max kilkanaście MB/s Transfery wzrosły około 10 razy od 1997 r.a czas dostępu do HDD niemal stoi w miejscu. Czasy dostępu w HDD są ściśle związane z prędkością obrotową, dlatego raczej nie jest możliwe aby przy danej prędkości skrócić najgorszy czas np 2x - ale: dawniej dyski potrzebowały znacznie więcej czasu na synchronizację głowica->track, miały mniej cache i mniejszą gęstość zapisu. Gęstość zapisu czyni cuda - obecnie dysk zmienia ścieżki znacznie rzadziej niż starsze konstrukcje, co oznacza że dla większości operacji średnie czasy są znacznie krótsze niż dawniej. Pisałeś też o fragmentacji: od dawna istnieją systemy które nie cierpią z powodu tego zjawiska (tak nawiasem mówiąc jest ich większość, tylko żaden nie jest własnością M$ :lol: ) Firekage: no to masz dobrze ustawione ;) co do TCMD - jest taka zakładka w opcjach, w której określa się jakie litery woluminów należą do poszczególnych dysków (o ile pamiętam: settings/operation/"following letters are on the same physical drive" - coś w ten deseń ;) ) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość dwaIP Opublikowano 7 Września 2009 Zgłoś Opublikowano 7 Września 2009 Czasy dostępu w HDD są ściśle związane z prędkością obrotową, dlatego raczej nie jest możliwe aby przy danej prędkości skrócić najgorszy czas np 2x -Skrócenie 2x latency do odczytu bez zwiększania prędkości obrotowej to nie problem konstrukcyjny jak dla mnie i to w połączeniu z istotnym obniżeniem ryzyka nienaprawialnego błędu odczytu , gorzej z zapisem bo to wymagało by umieszczenia nad jedną ścieżką symetrycznie 2 głowic zapisujących. Praktyczne skrócenie średniego czasu dostępu w systemie Windows można osiągnąć redukując ilość wykonywanych seek. Konkretnie poprzez zwiekszenie ilośći dysków i dobranie w miarę możliwości odpowiedniej lokalizacji plików tak aby pliki z wymaganym równoczesnym dostępem były na innych dyskach. Do tego rzecz jasna czyszczenie i defragmentowanie dysków. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Bezan Opublikowano 7 Września 2009 Zgłoś Opublikowano 7 Września 2009 Najprostszym z dopłatą to dołożenie drugiego dysku (nie musi być identyczny do pierwszego im pojemniejszy tym lepiej) i przeniesienie na niego pliku stronicowania. Raid 0 daje przyspieszenie transferu ale czas dostępu jest często istotniejszy niż transfer. Odzdielny dysk bez łączenia w rajd pozwala na poprawę średniego czasu dostępu do pliku bo przy 2 oddzielnych dyskach możliwy jest równoczesny dostęp do różnych plików i zmniejszenie zapełnienia dysku systemowego poprawiające transfer z niego. Jaki obecnie dysk będzie najodpowiedniejszy dla domowych zastosowań jeżeli chodzi o przeznaczenie go tylko na plik stronicowania? Zakładam, że podstawowy dysk to 1TB. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość dwaIP Opublikowano 7 Września 2009 Zgłoś Opublikowano 7 Września 2009 Jaki obecnie dysk będzie najodpowiedniejszy dla domowych zastosowań jeżeli chodzi o przeznaczenie go tylko na plik stronicowania? Zakładam, że podstawowy dysk to 1TB.Najtańszy dysk z podobnym max transferem i prędkością obrotową jak ten główny i nie ma konieczności aby był przeznaczony wyłącznie na plik stronicowania. Na plik stronicowania wystarczy mała partycja na początku dysku, resztę można przeznaczyć na niezbyt często używane pliki. Najwydajniejsze to by było coś w rodzaju ACard ANS-9010 a czy odpowiednie to wątpię bo drogie trudnodostępne i pobiera więcej prądu niż standardowy dysk. http://techreport.com/articles.x/16255 Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...