Jump to content
Sign in to follow this  
pavel54

Wd Caviar Blue 500gb / Talerz

Recommended Posts

WD 640AAKS max 49 stopni a to juz ciut za dużo.

To popatrz :

Dołączona grafika

 

Buda nawet nie ma wentyli na dyskach. Zgadzam sie jednak z tym , ze np. F1 ma prawie 10 stopni mniej ;)

 

Pomijam już fakt, że Samsungi raczej nie mogą się szczycić małą awaryjnością.

WD tez jak sie wejdzie glebiej w temat i poczyta. Zreszta , bierz poprawke na srednia statystyczna - Samsung ma najtansze dyski wiec pewnikiem wiecej ich sprzedaje , ale nie czytalem na tym forum wielu postow o ich padach (czy na PCL) za to o Sigejtach juz tak.

 

W temacie WD - na PCL i tutaj jak i IDG jest kilka tematow z problemami z AAKS (modele 400 i 640). ;)

Share this post


Link to post
Share on other sites

@Kwazor

Pewnie o 3353088[/snapback]

A opierasz się na....? Nie schodźmy do argumentów na poziomie "tak, bo tak" :wink:

Bo mnie jakoś mało interesuje kilka stopni wyższa temp skoro to się nie przenosi na wyższa awaryjność czy gorszą pracę. Blacki też mają wyższe tempy i jakoś nie przeszkadza im to łoić konkurencji

Opieram sie na 2 sztukach WD 640AAKS które miałem w PC

 

Nie każdy Samsung jest cichy, więc takie twierdzenie jest nieobiektywne. Pomijam już fakt, że Samsungi raczej nie mogą się szczycić małą awaryjnością.

nigdzie nie napisałem że Samsung(F3) jest cichy,WD są ciche z włączonym AAM,co do duzej awaryjnosci Samsungów to sie nie zgadzam.

 

 

 

To popatrz :

Dołączona grafika

 

Buda nawet nie ma wentyli na dyskach. Zgadzam sie jednak z tym , ze np. F1 ma prawie 10 stopni mniej ;)

no i temp jest w sam raz idealna dla dysków wlasnie 40-42,ale po wlozeniu dysku w skrzynke bitumiczną temp rosły do 50 stopni,a samsunga do 42,dlatego byłem zmuszony sprzedac WD i szukac czegos chłodniejszego.Z 500GB od WD chyba jest podobnie,wnioskuje to z temp jakie podał narciarz. Edited by naxt

Share this post


Link to post
Share on other sites

@naxt

nie zrozumiałeś mnie. Chodziło mi o to po czym twierdzisz, że 49 stopni jest temperaturą za wysoką dla dysku?

 

W temacie WD - na PCL i tutaj jak i IDG jest kilka tematow z problemami z AAKS (modele 400 i 640). ;)

No ja też czytałem złe i dobre opinie o dyskach różnych producentów, także pomijając niefart Seagate, pisanie, że ten czy inny dysk jest bardziej lub mniej awaryjny to bardzo subiektywna opinia.

Share this post


Link to post
Share on other sites

Wiec mb/s i ms to nie złoto co sie świeci !

Teraz jest moda na duże rozmiary talerzy obecnie 500 GB następne prawdopodobnie będzie 640-666 GB ale jesli ktoś nie potrzebuje

dużych pojemności to są pewniejsze i szybkie dyski przykładowo jednotalerzowe RE3

Dla porównania 250GB a właściwie to 333 GB z fabrycznie zawężonym wykorzystaniem do 250 GB (125GB po obu stronach)

http://angelicvoices.net/re3.jpg

33C i warto zauważyć że minimalny transfer większy niż w AAKS z 500GB talerzem.

Edited by dwaIP

Share this post


Link to post
Share on other sites

Dla porównania 250GB a właściwie to 333 GB z fabrycznie zawężonym wykorzystaniem do 250 GB (125GB po obu stronach)

http://angelicvoices.net/re3.jpg

33C i warto zauważyć że minimalny transfer większy niż w AAKS z 500GB talerzem.

Ten 500 AAKS z 2 talerzami jest wolniejszy niz np. 640 z 2 ) Ten co opdales , to jest 250GB (sciety z 333) ma pewnikiem te same talerze , ktore stosuja wlasnie w AAKS640 bo i ten ma sredni jakos 95.

Share this post


Link to post
Share on other sites

...no i temp jest w sam raz idealna dla dysków wlasnie 40-42,ale po wlozeniu dysku w skrzynke bitumiczną temp rosły do 50 stopni,a samsunga do 42,dlatego byłem zmuszony sprzedac WD i szukac czegos chłodniejszego.Z 500GB od WD chyba jest podobnie,wnioskuje to z temp jakie podał narciarz.

Sam zastanawiałem się kiedyś czy nie kupić ze 20 Szajsungów do klimatyzacji - np. w temp otoczenia 22-3 st. potrafią się schłodzić do 17st.C :lol:

Share this post


Link to post
Share on other sites

Pozno? WD mial dyski 500GB/talerz juz od stycznia tego roku.

Moje niedomówienie... 7200RPM...bo 5400 to prawda juz sa...

 

Trymek dzięki dokładnie o te testy mi chodziło...

 

Podsumowując, temat jest o nowych WD/500GB talerz, ale niedługo zostanie zaspamowany przez niezadowolonych użytkowników 10-letnich Wd-eków oraz posiadaczy dysków innych marek. Oczywiście żaden z nich nie miał w ogóle do czynienia z nowymi rewizjami WD

Taa pewnie zwłaszcza jak przypomne sobie WD80BB ( klasyczne łozysko które po poł roku wyło w niebiosa ) pozniej chciałem go sprzedac i doszło dzien przed sprzedarza do uszkodzenia translatora ... ( brak dostepu do dysku )

Na pewno zaspamuja nas ci co maja hitachi :P ( wogole nie widze ich na forum by ktos je miał )...

 

Szkoda ze Fujitsu juz nie produkuje dysków do zwykłych kompów .. czesto czarny kon testów....

 

Jak dla mnie pakowanie dysku do SQD bez nawiewu to ZBRODNIA !

Share this post


Link to post
Share on other sites

Jak dla mnie pakowanie dysku do SQD bez nawiewu to ZBRODNIA !

Ze ~2 lata temu google opublikowało swoje badania nad awaryjnością hdd - wyszło że dysk ma się najlepiej w temp. 35-45st.C a zauważalny wzrost ilości uszkodzeń był powyżej 50st.C <afair>

Share this post


Link to post
Share on other sites

Pozno? WD mial dyski 500GB/talerz juz od stycznia tego roku.

Sądzę, że chodziło Kwazorowi o 500GB ale z 7200RPM ;)

 

Co do temperatury, to za bardzo się stresujecie. tomazzi dobrze gada.

Mam 2 dyski w skrzynkach (płaskie wersje jednotalerzowe Seagate'a 250GB), żeby nie być gołosłownym i nawijać, co i jak, zdjęcie powie wszystko (trzeba popracować nad wyglądem, ale jakoś nie mam weny ;) )

post-20519-1251109657_thumb.jpg

Ostatnio przełączyłem na tryb IDE i sprawdziłem w MHDD, jak tam SMART się trzyma po upałach i pierwszych miesiącach na dole obudowy. Spodziewałem się kiepskich wyników, bo dyski nie mają żadnego nawiewu. Po lewej stronie w rogu budy jest wentyl, ale dyskom on tam dużo nie pomaga. Okazało się, że dyski dobiły max do 52 stopni i 50. Bez upałów, podczas normalnego działania będzie coś koło 38-43 (kiedyś mierzyłem miernikiem) 0 reloków, 0 problemów więc po co mam wentyle dostawiać?

Edited by Elektronek

Share this post


Link to post
Share on other sites

Sam zastanawiałem się kiedyś czy nie kupić ze 20 Szajsungów do klimatyzacji - np. w temp otoczenia 22-3 st. potrafią się schłodzić do 17st.C :lol:

:lol2:

Boskie... faktycznie na upały w sam raz.

 

P.S. Ludzie na patrzcie tak na te temp, bo to jak mierzenie napięć za pomocą programów. :lol: Coś wychodzi, ale nie wiadomo do czego to przypiąć.

 

Na pewno zaspamuja nas ci co maja hitachi :P ( wogole nie widze ich na forum by ktos je miał )...

Mam 1 sztukę 40GB 5400 RPM. Eee, Maxtor nie Hitachi, pomyłka. :lol2:

Chodził jakieś 5 lat non stop w serwie jako systemowy + torrent/emule. Przeżył Samsunga 80GB który padł po 2.5 roku. Teraz leży w pudełku, z ciekawości go podłączę i sprawdzę smarta.

Edited by toms83

Share this post


Link to post
Share on other sites

...

Na pewno zaspamuja nas ci co maja hitachi :P ( wogole nie widze ich na forum by ktos je miał )...

...

Hitachi nie produkuje dysków 500 GB na talerz i oferta w Polsce jest mizerna.

500 GB HDE721050SLA330 z talerzami 333 GB to szybki i ciekawy dysk ale jego cena w Polsce jest nieciekawa bo ponad 300 zł.

Według cen u sąsiadów powinien kosztować wyraźnie poniżej 300.

Ostatnio rozglądałem się za jakimś dyskiem 3.5" i ograniczyłem krąg zainteresowań do RE3 od WD oraz E7K1000 od Hitachi.

Dysk z talerzem 500 GB może kiedyś kupię ale wcześniej niech przetestują talerze 500 GB w serwerach bo obawiam się o trwałość

zapisu przy takiej gęstości.

Share this post


Link to post
Share on other sites

...swego czasu pełno było 2.5" Hitachi/IBM - i nie było z nimi problemów (nie licząc IBM z Węgier)

Co do samej firmy - ja ich "szanuję" - sporo jeśli nie większość nowych technologii jak systemy kompensacji drgań, parkowanie poza talerzami mieli na długo przed WD, Seagate itd. - jednak chyba mają problemy z elektroniką/algorytmami - nie biją rekordów w branży "cywilnej" i stąd pewnie mała popularność tych dysków.

 

DwaIP: myślę, że conajmniej 90% usterek hdd nie jest spowodowanych "zbyt dużą" gęstością zapisu - większość to problemy z elektroniką / uszkodzenia mechaniczne.

Share this post


Link to post
Share on other sites

...

DwaIP: myślę, że conajmniej 90% usterek hdd nie jest spowodowanych "zbyt dużą" gęstością zapisu - większość to problemy z elektroniką / uszkodzenia mechaniczne.

Kiedyś były tylko mechaniczne uszkodzenia dysków bo nie miały elektroniki, dysk był wymienny a napęd oddzielny

o rozmiarach zbliżonych do domowej pralki :)

Coś w tym stylu :

http://upload.wikimedia.org/wikipedia/comm...IBM_old_hdd.jpg

Dysk sprawdzało się przy pomocy specjalnego lusterka czy nie ma mechanicznych uszkodzeń powierzchni.

Miałem okazję pracować z takimi dyskami.

Ostatnio widzę że coraz więcej pojawia się informacji w sieci o prawie nowych dyskach z badami pomimo że w mechanice dysku niewiele się

zmieniło przez ostatnie kilka lat i uszkodzeń mechanicznych nie powinno przybywać.

Zmieniła się gęstość zapisu i przypuszczam że zaczyna to być problemem w najtańszych modelach zwłaszcza z obrotami 7200.

Możliwe że Hitachi wie co robi nie spiesząc się z talerzami 500 GB.

Hitachi ma 2TB A7K2000 HUA722020ALA330 ale nie ma dokładnych danych o gęstości zapisu jest tylko Gbits/sq. in. 285

oraz 352 dla 1TB i 0.5 TB oraz transfer 134 (u Seagate max 140 widziałem w dokumentacji czyli większą liniowa gęstość)

Share this post


Link to post
Share on other sites

...w mechanice dysku niewiele się

zmieniło przez ostatnie kilka lat i uszkodzeń mechanicznych nie powinno przybywać.

oj, zmieniło się, zmieniło - chociażby kompensacja wysokości lotu głowicy - jazda jest lepsza niż przy projektowaniu boeinga ;)

Share this post


Link to post
Share on other sites

oj, zmieniło się, zmieniło - chociażby kompensacja wysokości lotu głowicy - jazda jest lepsza niż przy projektowaniu boeinga ;)

I to mnie zastanawia - tak jak pisal IP , czemu w nowych dyskach potrafia od razu wyskakiwac bady. Dwa , trzy dni , pare godzin od kupna i bum , sa.

Share this post


Link to post
Share on other sites

są wady talerzy - ale raczej rzadko, są wadliwe głowice - trochę częściej, ale przede wszystkim jest wadliwy/niedoskonały soft - bo "bady" to tylko takie kawałki danych których nie dało się skorygować w ustalonym czasie - a dysk ma być szybki - a najlepiej jeszcze szybszy ;) Poza tym największą tajemnicą producentów nie są gęstości zapisu czy rozwiązania mechaniki/elektroniki - tylko algorytmy i format zapisu. Nie istnieje dysk, który nie ma błędów odczytu - bo np. wyszukiwanie ścieżek sprowadza się do sprawdzenia, czy aktualny strumień bitów z głowicy zawiera dane sektorów - szybkość z jaką to się ustali decyduje o czasie Track-to-Track seek time, czyli tak naprawdę o szybkości działania hdd - szczególnie jak głowica ma przejechać z początku na koniec dysku (full stroke seek time).

Share this post


Link to post
Share on other sites

I to mnie zastanawia - tak jak pisal IP , czemu w nowych dyskach potrafia od razu wyskakiwac bady. Dwa , trzy dni , pare godzin od kupna i bum , sa.

To właśnie przekonuje mnie do bardziej do zakupu nieco wolniejszego dysku z 250 GB talerzem przykładowo RE3

niż najnoszycch tańszych wynalasków z 500 GB talerzem.

 

są wady talerzy - ale raczej rzadko

...

Nie obawiam się zbytnio wady talerza bo to można przetestować i wymienić na dysk z talerzami bez wad.

Bardziej obawiam się że problemów po roku lub więcej, przykładowo że sektory zaczną umierać masowo w najmniej

wlaściwym momencie (akurat gdy zapomnę zrobić kopię zapasową danych)

Tego typu zjawisko miało miejsce w przypadku dyskietek. Najstarsze o najmniejszej gęstości zapisu mozna odczytać do dziś

po 20 latach a najnowsze 1.4 MB potrafią stracić dane po roku przebywania w szufladzie.

Poprzednia fotka starego dysku to nie to o czym pisałem.

Tak wyglądał napęd twardzieli o rozmiarach zbliżonych do domowej pralki:

http://en.wikipedia.org/wiki/File:IBM_2311_memory_unit.JPG

Miał otwieraną klapę aby można było wymienić dysk a do dysku był specjalny oddzielny uchwyt-osłona aby przenieść dysk :)

Share this post


Link to post
Share on other sites

To właśnie przekonuje mnie do bardziej do zakupu nieco wolniejszego dysku z 250 GB talerzem przykładowo RE3

niż najnoszycch tańszych wynalasków z 500 GB talerzem.

Wiesz , zabawna jest jedna rzecz - u mnie na Sigejcie 11 w sumie od razu wyskoczyl bad w jednym z nich , a WD smiga mi cos kolo 2500h i nie ma zadnego.

 

Mowisz , ze wolisz o mniejszej gestosci , no ale jesli sie nie myle to WD640 ma wieksza gestosc na talerz niz 500GB 11 , a tutaj odwrotnosc mam z badami ;) wzgledem twoich obaw.

Tego typu zjawisko miało miejsce w przypadku dyskietek. Najstarsze o najmniejszej gęstości zapisu mozna odczytać do dziś

po 20 latach a najnowsze 1.4 MB potrafią stracić dane po roku przebywania w szufladzie.

Z flopka to zawsze mialem problem. Dyskietki padaly masowo nawet , gdy ich nie uzywalem.

Share this post


Link to post
Share on other sites

z flopami to akurat jest tak, że przez ostatnie lata świetności fdd stacje były produkowane w chinach na ilość - często były źle skalibrowane i dyskietka nagrana na jednej nie chciała chodzić na drugiej. Szybko też zużywały się mechanizmy do przesuwania głowic i stacja po pewnym czasie nie mogła trafić w ścieżkę. Gdy flopy miały pojemności po 720KB/880KB to stacje produkował Panasonic, Sony, HP, ... ( przynajmniej je markowali) - potem weszła firma "Chinon" i dobre czasy się skończyły ;) Przez jakiś czas dobre FDD można było kupić pod USB - np. o prędkości odczytu 2x (~40KB/s :lol: )

 

...widziałem HDD z Elwro - talerz mógł spokojnie służyć jako małe Sombrero, tylko "czubek" trzeba by dolożyć ;)

Share this post


Link to post
Share on other sites
Wiesz , zabawna jest jedna rzecz - u mnie na Sigejcie 11 w sumie od razu wyskoczyl bad w jednym z nich , a WD smiga mi cos kolo 2500h i nie ma zadnego.

 

Mowisz , ze wolisz o mniejszej gestosci , no ale jesli sie nie myle to WD640 ma wieksza gestosc na talerz niz 500GB 11 , a tutaj odwrotnosc mam z badami ;) wzgledem twoich obaw.

...

Dysk portzebuję dołożyć do komputera jako kolejny a zasilacz w nim ma słabą linię 12V (17A) dlatego dyski potrzebujące prawie

3A na 12 przy rozkręcaniu raczej odpadają a 500 GB 7200.11 odpada jeszcze z wielu innych powodów.

Tu jest test poboru prądu kilkunastu modeli uwzględniający prąd rozruchu:

3353828[/snapback]

z flopami to akurat jest tak, że przez ostatnie lata świetności fdd stacje były produkowane w chinach na ilość - często były źle skalibrowane i dyskietka nagrana na jednej nie chciała chodzić na drugiej. Szybko też zużywały się mechanizmy do przesuwania głowic i stacja po pewnym czasie nie mogła trafić w ścieżkę. Gdy flopy miały pojemności po 720KB/880KB to stacje produkował Panasonic, Sony, HP, ... ( przynajmniej je markowali) - potem weszła firma "Chinon" i dobre czasy się skończyły ;) Przez jakiś czas dobre FDD można było kupić pod USB - np. o prędkości odczytu 2x (~40KB/s :lol: ) ...

Wiem że napedy FDD róznią się jakością ale test przeprowadziłem przy pomocy kilku dobrych napędów i w tym miałem

napęd Sony na którym większość dyskietek 1.44 była nagrywana (napęd 1.44 w staryn laptopie IBM i tak był skuteczniejszy

nawet w przypadku dyskietek nagrywanych na tym samym Sony)

Któregoś dnia postanowiłem zrobić porządek ze starymi dyskietkami (po prostu większość wyrzucić ale wcześniej zgrać zawartość

na dysk)

Dyskietki miałem 5.25" 360 KB i 1.2 MB oraz 720 KB i 1.44 MB 3.5"

Wynik tej operacji był mniej więcej taki:

Wszystkie dyskietki 360KB, 720KB 1.2MB zostały odczytane pomimo że cześć z nich to była 360 KB 5.25" zapisane przed 1988 r.

nie udało się odczytać sporej części tych z największą gestością zapisu czyli 1.44 3.5" pomimo że były znacznie nowsze.

Co ciekawsze dysietki 1.44 nie dajace się odczytać nie miały wadliwego nośnika, pozwalały się formatować bez utraty pojemności a zapisane

ponownie dały się czytać. Po roku czasu zrobiłem przegląd 1.44MB jeszcze raz i okazało się że część nie nadaje się do odczytu

Były nagrane na najlepszym napędzie w laptopie IBM i odczytywane na tym samym.

 

Producenci dysków twardych nie mogą zbyt długo testować nośnika pod wzgledem trwałości zapisu bo konkurencja nie śpi.

Nie mogą nowego zapisanego modelu talerza trzymać i sprawdzać przez 20 lat przed wprowadzeniem na rynek

aby sprawdzić trwałość zapisu, muszą trochę ryzykować.

Dlatego zapewne wcześniej wstawiają gęściej zapisane talerze do tańszych modeli z krótszą gwarancją a modele dysków

do serwerów z wysokim MTBF mają w tym samym czasie mniejszszą gęstość zapisu pomimo wymaganej wydjności.

Share this post


Link to post
Share on other sites

Producenci dysków twardych nie mogą zbyt długo testować nośnika pod wzgledem trwałości zapisu bo konkurencja nie śpi.

Nie mogą nowego zapisanego modelu talerza trzymać i sprawdzać przez 20 lat przed wprowadzeniem na rynek

aby sprawdzić trwałość zapisu, muszą trochę ryzykować.

To prawda - nikt tego nie testuje przez lata - bo są różne inne metody które pozwalają ten proces skrócić do tygodni/miesięcy - wystarczy próbkę poddać cyklicznym zmianom temp (odpowiednio dobranej) oraz zmiennemu polu magnetycznemu, symulując naturalne warunki w najgorszym możliwym wydaniu. Ilość utraconych danych pozwali określić i wyliczyć po jakim czasie algorytmy korygujące nie będą w stanie przywrócić pierwotnego zapisu. Tu jest właśnie istotna różnica - FDD to po prostu bardzo prymitywne urządzenie w porównaniu do HDD - te potrafią w dużym stopniu zregenerować sygnał z głowic, nawet gdy informacja "magnetyczna" została nadgryziona zębem czasu albo polem magnetycznym ;)

Share this post


Link to post
Share on other sites

To prawda - nikt tego nie testuje przez lata - bo są różne inne metody które pozwalają ten proces skrócić do tygodni/miesięcy - wystarczy próbkę poddać cyklicznym zmianom temp (odpowiednio dobranej) oraz zmiennemu polu magnetycznemu, symulując naturalne warunki w najgorszym możliwym wydaniu.

...

Samo negatywne działanie ziemskiego pola magnetycznego czy temperatur moze da się zasymulować na tyle wiernie

by skrócić czas testów do tygodni.

Pozostaje jeszcze mały kłopocik w postaci wielokrotnego zapisu w tym samym sektorze.

Część oprogramowania tak działa że wykonuje permanentnie zapis w tym samum miejscu pliku , przykladowo silnik bazy

danych w pliku indeksu, w plikach liczników operacji lub sum kontrolnych bazy.

Na ile zagęszczenie zapisu może wpłynąć negatywnie na odporność nośnika na wielokrotny zapis dobrze ilustruje

spadek odporności na wielokrotny zapis płyt DVD RW w stosunku do płyt CD RW.

Mały kłopocik będzie dużym kłopotem jeśli trzeba będzie zasymulować mieszankę oddziaływania w czasie pola magnetycznego

temperatur i wielokrotnego zapisu.

Wolę nabyć dysk z talerzem przetestowanym na potrzeby serwerów i choć trochę w serwerach niż dysk który będzie zawierał talerz

testowany u mnie na potrzeby przyszłych dysków do serwerów :)

Jak zaczną sprzedawać dyski 7200 RPM z talerzami 500 GB do serwerów z ponad milionem godzin MTBF to zacznę

się nad takim zastanawiać i być może po paru miesiącach tastowania w serwerach kupię dysk 7200 RPM z takim talerzem :)

Share this post


Link to post
Share on other sites

[...]

Wolę nabyć dysk z talerzem przetestowanym na potrzeby serwerów i choć trochę w serwerach niż dysk który będzie zawierał talerz

testowany u mnie na potrzeby przyszłych dysków do serwerów :)

Czyli na chwilę obecną jakie dyski podchodzą pod tą teorię? :razz:

Share this post


Link to post
Share on other sites

Niestety dwaIP... bedzie musiał na nie poczekac wiele lat .... wrecz bedzie to niemozliwe.. bo dyski w serwerach sa na talerzach 2.5 Cala a dlaczego to odsyłam do google... i czesto jest to 5 -7 talerzy... ( miałem SCSI 4.3GB z 10 ! )

Dysków do serwerów z 7200 to nie widze w ofertach dzsiejszych..

 

 

Piszecie ze dyskietki szybko wam się "kończa" to prawda bo dochodzi do DEMAGNESACJI nosnika... ( do demagnesacji jest tez potrzebna temperatura choc niezawsze bo domeny magnetyczne tez potrafia sie zmienic..)

A dlaczego dyski serwerowe maja taka masywna obudowe ? Proste by dysk powoli sie nagrzewał i powoli stygł by nie doszło do wyzej opisanego zjawiska....

Edited by Kwazor

Share this post


Link to post
Share on other sites

Czyli na chwilę obecną jakie dyski podchodzą pod tą teorię? :razz:

Najtańsze dla serwera typu entry level czyli 3.5" SATA 7200 RPM dostosowane do pracy 24/7 w RAID pod dużym obciążeniem.

 

Niestety dwaIP... bedzie musiał na nie poczekac wiele lat .... wrecz bedzie to niemozliwe.. bo dyski w serwerach sa na talerzach 2.5 Cala a dlaczego to odsyłam do google... i czesto jest to 5 -7 talerzy... ( miałem SCSI 4.3GB z 10 ! )

Dysków do serwerów z 7200 to nie widze w ofertach dzsiejszych..

Trochę przesadziłeś ze stwierdzeniem że 3.5" 7200 nie stosuje się do serwerów.

IBM DS3200 to nie jest urządzenie do komputerka medialnego ani laptopa tylko do serwera typu entry level :

http://www-03.ibm.com/systems/storage/disk...3200/index.html

Pasują do tego między innymi dyski SATA 3.5" 7200 RPM

 

Są różne serwery i do tych najtańszych gdy potrzebna jest pojemność instaluje się jeszcze dyski 3.5" dostosowane do działania w RAID

pod dużym obciążeniem 24/7 i prawdopodobieństwem wystąpienia nienaprawialnego błędu odczytu bitu poniżej jednego na 10 do 15

orzaz MTBF conajmniej 1.2 miliona godzin.

czyli przykładowo RE3 , ES.2 , E7K1000, A7K2000

Share this post


Link to post
Share on other sites

...MTBF? :blink: - wskaźnik samozadowolenia producenta?

Nabywca indywidualny nie jest w stanie zweryfikować takiego wskaźnika.

W przypadku rynku korporacyjnego to wskaźnik weryfikowalny przez korporację kupującą sprzęt.

1.2 milona godzin MTBF dla sprzętu 24/7 oznacza deklarację że nie padnie więcej niż 0.73% egzemparzy rocznie.

Czyli jeśli korporacja zakupi 10000 dysków 24/7 z MTBF 1.2 milona to nie powinno paść w trakcie roku więcej niż 73 z zakupionych.

Korporacje kupujące sprzęt wymieniają się takimi informacjami i producent podający zawyżone MTBF

wypada z rynku korporacyjnego.

Share this post


Link to post
Share on other sites

Tak masz rację - takie jest przeznaczenie tego wskaźnika, ale nikt kto ma pojęcie o dyskach nie będzie się tym sugerował - już raczej wskaźnikiem cena/pojemność - do biura, wydajność/pojemność/support/własne i innych doświadczenia - do serwera. Mało kto kupuje >1000 dysków na raz - a tu rządzi głównie prawo serii - patrz chociażby Barka .11 - MTBF to raczej by im nie wyszło.

Share this post


Link to post
Share on other sites

Tak masz rację - takie jest przeznaczenie tego wskaźnika, ale nikt kto ma pojęcie o dyskach nie będzie się tym sugerował - już raczej wskaźnikiem cena/pojemność - do biura, wydajność/pojemność/support/własne i innych doświadczenia - do serwera. Mało kto kupuje >1000 dysków na raz - a tu rządzi głównie prawo serii - patrz chociażby Barka .11 - MTBF to raczej by im nie wyszło.

Oj to zdecydowanie nie poszło. Tak tu rozmawiamy i wychodzi na to że sama większa gęstość zapisu nie koniecznie wychodzi na dobre? Łatwiej/szybciej może się taki dysk zepsuć niż np. 333 GB na talerz. W końcu 500 GB/talerz nie jest od 2 lat dostępne, żeby ktoś mógł zweryfikować "padalność" nowych sztuk. Coś jak z SSD, jesteśmy beta testerami. :wink:

Share this post


Link to post
Share on other sites

Tak masz rację - takie jest przeznaczenie tego wskaźnika, ale nikt kto ma pojęcie o dyskach nie będzie się tym sugerował - już raczej wskaźnikiem cena/pojemność - do biura, wydajność/pojemność/support/własne i innych doświadczenia - do serwera. Mało kto kupuje >1000 dysków na raz - a tu rządzi głównie prawo serii - patrz chociażby Barka .11 - MTBF to raczej by im nie wyszło.

Wszystkie parametry dysku odgrywają rolę w jego ocenie i każdy może oceniać nieco inaczej na własne potrzeby

przykładając większą wagę do tego czy innego parametru.

Cena/wydajność/pojemność/głośność/pobór prądu/niezawodność/trwałość

Obiegowa opinia stwierdzająca że "im większa pojemność talerza to lepiej" stoi nieco w sprzecności z parametrem

trwałość-niezawodność zwlaszcza w przypadku słabo przetestowanych przez użytkowników nowości.

Jest jeszcze jeden parametr podawany przez producentów dysków: ograniczenie na częstotliwość wystąpienia nienaprawialnego

błędu odczytu i jeśli prawdziwy to dość istotny zwłaszcza do serwera

Do domowego komputerka wystarczy 1/(10 do 14) do serwera wskazne minimum to 1/(10 do 15) a do krytycznych 1/(10 do 16) .

Trwalość jest coraz bardziej powiązana z ceną bo od niej zależy jak szybko dysk będzie musiał zostać wymieniony na nowy.

Przykladowo w 1992 kupiłem dysk 40 MB, musiał trafić do szuflady bardzo szybko bo po 4 latach i jego trwalość nie odgrywała dużej roli.

Podobnie było s dyskiem 340 MB kupionym chyba dwa lata póżniej ten był używany tylko o rok dłużej.

Kupiony bodajże w 1996 1.2 GB wypadł z użytku po około 8 latach.

Kupiony z laptopem IBM 3.2 GB w 1998 r jast używany do dzisiaj czyli około 11 lat.

Wymienione wyżej dyski traciły swoją użyteczność głownie w wyniku zbyt małej pojemności.

Kupiony w 2001 40GB ma nadal większą pojemność niż najtańsze dyski SSD i jest używanny.

Kupiony w 2004 120 GB ma nadal zbliżoną pojemność do najtańszych sprzedawanych i zbliżoną wydajność, średnia odczytu

HDTUNE to 44 MB czas dostępu to 14 ms.

Share this post


Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Reply to this topic...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

Loading...
Sign in to follow this  

Aktualności

Artykuły



×
×
  • Create New...

Important Information

We have placed cookies on your device to help make this website better. You can adjust your cookie settings, otherwise we'll assume you're okay to continue.