Gość Firekage Opublikowano 23 Sierpnia 2009 Zgłoś Opublikowano 23 Sierpnia 2009 WD 640AAKS max 49 stopni a to juz ciut za dużo.To popatrz : Buda nawet nie ma wentyli na dyskach. Zgadzam sie jednak z tym , ze np. F1 ma prawie 10 stopni mniej ;) Pomijam już fakt, że Samsungi raczej nie mogą się szczycić małą awaryjnością.WD tez jak sie wejdzie glebiej w temat i poczyta. Zreszta , bierz poprawke na srednia statystyczna - Samsung ma najtansze dyski wiec pewnikiem wiecej ich sprzedaje , ale nie czytalem na tym forum wielu postow o ich padach (czy na PCL) za to o Sigejtach juz tak. W temacie WD - na PCL i tutaj jak i IDG jest kilka tematow z problemami z AAKS (modele 400 i 640). ;) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
naxt Opublikowano 23 Sierpnia 2009 Zgłoś Opublikowano 23 Sierpnia 2009 (edytowane) @Kwazor Pewnie o 3353088[/snapback] A opierasz się na....? Nie schodźmy do argumentów na poziomie "tak, bo tak" :wink: Bo mnie jakoś mało interesuje kilka stopni wyższa temp skoro to się nie przenosi na wyższa awaryjność czy gorszą pracę. Blacki też mają wyższe tempy i jakoś nie przeszkadza im to łoić konkurencji Opieram sie na 2 sztukach WD 640AAKS które miałem w PC Nie każdy Samsung jest cichy, więc takie twierdzenie jest nieobiektywne. Pomijam już fakt, że Samsungi raczej nie mogą się szczycić małą awaryjnością. nigdzie nie napisałem że Samsung(F3) jest cichy,WD są ciche z włączonym AAM,co do duzej awaryjnosci Samsungów to sie nie zgadzam. To popatrz : Buda nawet nie ma wentyli na dyskach. Zgadzam sie jednak z tym , ze np. F1 ma prawie 10 stopni mniej ;) no i temp jest w sam raz idealna dla dysków wlasnie 40-42,ale po wlozeniu dysku w skrzynke bitumiczną temp rosły do 50 stopni,a samsunga do 42,dlatego byłem zmuszony sprzedac WD i szukac czegos chłodniejszego.Z 500GB od WD chyba jest podobnie,wnioskuje to z temp jakie podał narciarz. Edytowane 23 Sierpnia 2009 przez naxt Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
trymek Opublikowano 23 Sierpnia 2009 Zgłoś Opublikowano 23 Sierpnia 2009 @naxt nie zrozumiałeś mnie. Chodziło mi o to po czym twierdzisz, że 49 stopni jest temperaturą za wysoką dla dysku? W temacie WD - na PCL i tutaj jak i IDG jest kilka tematow z problemami z AAKS (modele 400 i 640). ;)No ja też czytałem złe i dobre opinie o dyskach różnych producentów, także pomijając niefart Seagate, pisanie, że ten czy inny dysk jest bardziej lub mniej awaryjny to bardzo subiektywna opinia. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość dwaIP Opublikowano 23 Sierpnia 2009 Zgłoś Opublikowano 23 Sierpnia 2009 (edytowane) Wiec mb/s i ms to nie złoto co sie świeci !Teraz jest moda na duże rozmiary talerzy obecnie 500 GB następne prawdopodobnie będzie 640-666 GB ale jesli ktoś nie potrzebuje dużych pojemności to są pewniejsze i szybkie dyski przykładowo jednotalerzowe RE3 Dla porównania 250GB a właściwie to 333 GB z fabrycznie zawężonym wykorzystaniem do 250 GB (125GB po obu stronach) http://angelicvoices.net/re3.jpg 33C i warto zauważyć że minimalny transfer większy niż w AAKS z 500GB talerzem. Edytowane 23 Sierpnia 2009 przez dwaIP Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość Firekage Opublikowano 24 Sierpnia 2009 Zgłoś Opublikowano 24 Sierpnia 2009 Dla porównania 250GB a właściwie to 333 GB z fabrycznie zawężonym wykorzystaniem do 250 GB (125GB po obu stronach) http://angelicvoices.net/re3.jpg 33C i warto zauważyć że minimalny transfer większy niż w AAKS z 500GB talerzem. Ten 500 AAKS z 2 talerzami jest wolniejszy niz np. 640 z 2 ) Ten co opdales , to jest 250GB (sciety z 333) ma pewnikiem te same talerze , ktore stosuja wlasnie w AAKS640 bo i ten ma sredni jakos 95. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość <account_deleted> Opublikowano 24 Sierpnia 2009 Zgłoś Opublikowano 24 Sierpnia 2009 ...no i temp jest w sam raz idealna dla dysków wlasnie 40-42,ale po wlozeniu dysku w skrzynke bitumiczną temp rosły do 50 stopni,a samsunga do 42,dlatego byłem zmuszony sprzedac WD i szukac czegos chłodniejszego.Z 500GB od WD chyba jest podobnie,wnioskuje to z temp jakie podał narciarz.Sam zastanawiałem się kiedyś czy nie kupić ze 20 Szajsungów do klimatyzacji - np. w temp otoczenia 22-3 st. potrafią się schłodzić do 17st.C :lol: Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Kwazor Opublikowano 24 Sierpnia 2009 Zgłoś Opublikowano 24 Sierpnia 2009 Pozno? WD mial dyski 500GB/talerz juz od stycznia tego roku. Moje niedomówienie... 7200RPM...bo 5400 to prawda juz sa... Trymek dzięki dokładnie o te testy mi chodziło... Podsumowując, temat jest o nowych WD/500GB talerz, ale niedługo zostanie zaspamowany przez niezadowolonych użytkowników 10-letnich Wd-eków oraz posiadaczy dysków innych marek. Oczywiście żaden z nich nie miał w ogóle do czynienia z nowymi rewizjami WD Taa pewnie zwłaszcza jak przypomne sobie WD80BB ( klasyczne łozysko które po poł roku wyło w niebiosa ) pozniej chciałem go sprzedac i doszło dzien przed sprzedarza do uszkodzenia translatora ... ( brak dostepu do dysku ) Na pewno zaspamuja nas ci co maja hitachi :P ( wogole nie widze ich na forum by ktos je miał )... Szkoda ze Fujitsu juz nie produkuje dysków do zwykłych kompów .. czesto czarny kon testów.... Jak dla mnie pakowanie dysku do SQD bez nawiewu to ZBRODNIA ! Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość <account_deleted> Opublikowano 24 Sierpnia 2009 Zgłoś Opublikowano 24 Sierpnia 2009 Jak dla mnie pakowanie dysku do SQD bez nawiewu to ZBRODNIA !Ze ~2 lata temu google opublikowało swoje badania nad awaryjnością hdd - wyszło że dysk ma się najlepiej w temp. 35-45st.C a zauważalny wzrost ilości uszkodzeń był powyżej 50st.C <afair> Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Elektronek Opublikowano 24 Sierpnia 2009 Zgłoś Opublikowano 24 Sierpnia 2009 (edytowane) Pozno? WD mial dyski 500GB/talerz juz od stycznia tego roku.Sądzę, że chodziło Kwazorowi o 500GB ale z 7200RPM ;) Co do temperatury, to za bardzo się stresujecie. tomazzi dobrze gada. Mam 2 dyski w skrzynkach (płaskie wersje jednotalerzowe Seagate'a 250GB), żeby nie być gołosłownym i nawijać, co i jak, zdjęcie powie wszystko (trzeba popracować nad wyglądem, ale jakoś nie mam weny ;) ) Ostatnio przełączyłem na tryb IDE i sprawdziłem w MHDD, jak tam SMART się trzyma po upałach i pierwszych miesiącach na dole obudowy. Spodziewałem się kiepskich wyników, bo dyski nie mają żadnego nawiewu. Po lewej stronie w rogu budy jest wentyl, ale dyskom on tam dużo nie pomaga. Okazało się, że dyski dobiły max do 52 stopni i 50. Bez upałów, podczas normalnego działania będzie coś koło 38-43 (kiedyś mierzyłem miernikiem) 0 reloków, 0 problemów więc po co mam wentyle dostawiać? Edytowane 24 Sierpnia 2009 przez Elektronek Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
toms83 Opublikowano 24 Sierpnia 2009 Zgłoś Opublikowano 24 Sierpnia 2009 (edytowane) Sam zastanawiałem się kiedyś czy nie kupić ze 20 Szajsungów do klimatyzacji - np. w temp otoczenia 22-3 st. potrafią się schłodzić do 17st.C :lol: :lol2: Boskie... faktycznie na upały w sam raz. P.S. Ludzie na patrzcie tak na te temp, bo to jak mierzenie napięć za pomocą programów. :lol: Coś wychodzi, ale nie wiadomo do czego to przypiąć. Na pewno zaspamuja nas ci co maja hitachi :P ( wogole nie widze ich na forum by ktos je miał )... Mam 1 sztukę 40GB 5400 RPM. Eee, Maxtor nie Hitachi, pomyłka. :lol2: Chodził jakieś 5 lat non stop w serwie jako systemowy + torrent/emule. Przeżył Samsunga 80GB który padł po 2.5 roku. Teraz leży w pudełku, z ciekawości go podłączę i sprawdzę smarta. Edytowane 24 Sierpnia 2009 przez toms83 Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość dwaIP Opublikowano 24 Sierpnia 2009 Zgłoś Opublikowano 24 Sierpnia 2009 ... Na pewno zaspamuja nas ci co maja hitachi :P ( wogole nie widze ich na forum by ktos je miał )... ... Hitachi nie produkuje dysków 500 GB na talerz i oferta w Polsce jest mizerna. 500 GB HDE721050SLA330 z talerzami 333 GB to szybki i ciekawy dysk ale jego cena w Polsce jest nieciekawa bo ponad 300 zł. Według cen u sąsiadów powinien kosztować wyraźnie poniżej 300. Ostatnio rozglądałem się za jakimś dyskiem 3.5" i ograniczyłem krąg zainteresowań do RE3 od WD oraz E7K1000 od Hitachi. Dysk z talerzem 500 GB może kiedyś kupię ale wcześniej niech przetestują talerze 500 GB w serwerach bo obawiam się o trwałość zapisu przy takiej gęstości. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość <account_deleted> Opublikowano 24 Sierpnia 2009 Zgłoś Opublikowano 24 Sierpnia 2009 ...swego czasu pełno było 2.5" Hitachi/IBM - i nie było z nimi problemów (nie licząc IBM z Węgier) Co do samej firmy - ja ich "szanuję" - sporo jeśli nie większość nowych technologii jak systemy kompensacji drgań, parkowanie poza talerzami mieli na długo przed WD, Seagate itd. - jednak chyba mają problemy z elektroniką/algorytmami - nie biją rekordów w branży "cywilnej" i stąd pewnie mała popularność tych dysków. DwaIP: myślę, że conajmniej 90% usterek hdd nie jest spowodowanych "zbyt dużą" gęstością zapisu - większość to problemy z elektroniką / uszkodzenia mechaniczne. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość dwaIP Opublikowano 24 Sierpnia 2009 Zgłoś Opublikowano 24 Sierpnia 2009 ... DwaIP: myślę, że conajmniej 90% usterek hdd nie jest spowodowanych "zbyt dużą" gęstością zapisu - większość to problemy z elektroniką / uszkodzenia mechaniczne. Kiedyś były tylko mechaniczne uszkodzenia dysków bo nie miały elektroniki, dysk był wymienny a napęd oddzielny o rozmiarach zbliżonych do domowej pralki :) Coś w tym stylu : http://upload.wikimedia.org/wikipedia/comm...IBM_old_hdd.jpg Dysk sprawdzało się przy pomocy specjalnego lusterka czy nie ma mechanicznych uszkodzeń powierzchni. Miałem okazję pracować z takimi dyskami. Ostatnio widzę że coraz więcej pojawia się informacji w sieci o prawie nowych dyskach z badami pomimo że w mechanice dysku niewiele się zmieniło przez ostatnie kilka lat i uszkodzeń mechanicznych nie powinno przybywać. Zmieniła się gęstość zapisu i przypuszczam że zaczyna to być problemem w najtańszych modelach zwłaszcza z obrotami 7200. Możliwe że Hitachi wie co robi nie spiesząc się z talerzami 500 GB. Hitachi ma 2TB A7K2000 HUA722020ALA330 ale nie ma dokładnych danych o gęstości zapisu jest tylko Gbits/sq. in. 285 oraz 352 dla 1TB i 0.5 TB oraz transfer 134 (u Seagate max 140 widziałem w dokumentacji czyli większą liniowa gęstość) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość <account_deleted> Opublikowano 24 Sierpnia 2009 Zgłoś Opublikowano 24 Sierpnia 2009 ...w mechanice dysku niewiele się zmieniło przez ostatnie kilka lat i uszkodzeń mechanicznych nie powinno przybywać. oj, zmieniło się, zmieniło - chociażby kompensacja wysokości lotu głowicy - jazda jest lepsza niż przy projektowaniu boeinga ;) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość Firekage Opublikowano 24 Sierpnia 2009 Zgłoś Opublikowano 24 Sierpnia 2009 oj, zmieniło się, zmieniło - chociażby kompensacja wysokości lotu głowicy - jazda jest lepsza niż przy projektowaniu boeinga ;)I to mnie zastanawia - tak jak pisal IP , czemu w nowych dyskach potrafia od razu wyskakiwac bady. Dwa , trzy dni , pare godzin od kupna i bum , sa. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość <account_deleted> Opublikowano 24 Sierpnia 2009 Zgłoś Opublikowano 24 Sierpnia 2009 są wady talerzy - ale raczej rzadko, są wadliwe głowice - trochę częściej, ale przede wszystkim jest wadliwy/niedoskonały soft - bo "bady" to tylko takie kawałki danych których nie dało się skorygować w ustalonym czasie - a dysk ma być szybki - a najlepiej jeszcze szybszy ;) Poza tym największą tajemnicą producentów nie są gęstości zapisu czy rozwiązania mechaniki/elektroniki - tylko algorytmy i format zapisu. Nie istnieje dysk, który nie ma błędów odczytu - bo np. wyszukiwanie ścieżek sprowadza się do sprawdzenia, czy aktualny strumień bitów z głowicy zawiera dane sektorów - szybkość z jaką to się ustali decyduje o czasie Track-to-Track seek time, czyli tak naprawdę o szybkości działania hdd - szczególnie jak głowica ma przejechać z początku na koniec dysku (full stroke seek time). Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość dwaIP Opublikowano 24 Sierpnia 2009 Zgłoś Opublikowano 24 Sierpnia 2009 I to mnie zastanawia - tak jak pisal IP , czemu w nowych dyskach potrafia od razu wyskakiwac bady. Dwa , trzy dni , pare godzin od kupna i bum , sa.To właśnie przekonuje mnie do bardziej do zakupu nieco wolniejszego dysku z 250 GB talerzem przykładowo RE3 niż najnoszycch tańszych wynalasków z 500 GB talerzem. są wady talerzy - ale raczej rzadko ... Nie obawiam się zbytnio wady talerza bo to można przetestować i wymienić na dysk z talerzami bez wad. Bardziej obawiam się że problemów po roku lub więcej, przykładowo że sektory zaczną umierać masowo w najmniej wlaściwym momencie (akurat gdy zapomnę zrobić kopię zapasową danych) Tego typu zjawisko miało miejsce w przypadku dyskietek. Najstarsze o najmniejszej gęstości zapisu mozna odczytać do dziś po 20 latach a najnowsze 1.4 MB potrafią stracić dane po roku przebywania w szufladzie. Poprzednia fotka starego dysku to nie to o czym pisałem. Tak wyglądał napęd twardzieli o rozmiarach zbliżonych do domowej pralki: http://en.wikipedia.org/wiki/File:IBM_2311_memory_unit.JPG Miał otwieraną klapę aby można było wymienić dysk a do dysku był specjalny oddzielny uchwyt-osłona aby przenieść dysk :) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość Firekage Opublikowano 24 Sierpnia 2009 Zgłoś Opublikowano 24 Sierpnia 2009 To właśnie przekonuje mnie do bardziej do zakupu nieco wolniejszego dysku z 250 GB talerzem przykładowo RE3 niż najnoszycch tańszych wynalasków z 500 GB talerzem. Wiesz , zabawna jest jedna rzecz - u mnie na Sigejcie 11 w sumie od razu wyskoczyl bad w jednym z nich , a WD smiga mi cos kolo 2500h i nie ma zadnego. Mowisz , ze wolisz o mniejszej gestosci , no ale jesli sie nie myle to WD640 ma wieksza gestosc na talerz niz 500GB 11 , a tutaj odwrotnosc mam z badami ;) wzgledem twoich obaw. Tego typu zjawisko miało miejsce w przypadku dyskietek. Najstarsze o najmniejszej gęstości zapisu mozna odczytać do dziś po 20 latach a najnowsze 1.4 MB potrafią stracić dane po roku przebywania w szufladzie. Z flopka to zawsze mialem problem. Dyskietki padaly masowo nawet , gdy ich nie uzywalem. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość <account_deleted> Opublikowano 25 Sierpnia 2009 Zgłoś Opublikowano 25 Sierpnia 2009 z flopami to akurat jest tak, że przez ostatnie lata świetności fdd stacje były produkowane w chinach na ilość - często były źle skalibrowane i dyskietka nagrana na jednej nie chciała chodzić na drugiej. Szybko też zużywały się mechanizmy do przesuwania głowic i stacja po pewnym czasie nie mogła trafić w ścieżkę. Gdy flopy miały pojemności po 720KB/880KB to stacje produkował Panasonic, Sony, HP, ... ( przynajmniej je markowali) - potem weszła firma "Chinon" i dobre czasy się skończyły ;) Przez jakiś czas dobre FDD można było kupić pod USB - np. o prędkości odczytu 2x (~40KB/s :lol: ) ...widziałem HDD z Elwro - talerz mógł spokojnie służyć jako małe Sombrero, tylko "czubek" trzeba by dolożyć ;) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość dwaIP Opublikowano 25 Sierpnia 2009 Zgłoś Opublikowano 25 Sierpnia 2009 Wiesz , zabawna jest jedna rzecz - u mnie na Sigejcie 11 w sumie od razu wyskoczyl bad w jednym z nich , a WD smiga mi cos kolo 2500h i nie ma zadnego. Mowisz , ze wolisz o mniejszej gestosci , no ale jesli sie nie myle to WD640 ma wieksza gestosc na talerz niz 500GB 11 , a tutaj odwrotnosc mam z badami ;) wzgledem twoich obaw. ... Dysk portzebuję dołożyć do komputera jako kolejny a zasilacz w nim ma słabą linię 12V (17A) dlatego dyski potrzebujące prawie 3A na 12 przy rozkręcaniu raczej odpadają a 500 GB 7200.11 odpada jeszcze z wielu innych powodów. Tu jest test poboru prądu kilkunastu modeli uwzględniający prąd rozruchu: 3353828[/snapback] z flopami to akurat jest tak, że przez ostatnie lata świetności fdd stacje były produkowane w chinach na ilość - często były źle skalibrowane i dyskietka nagrana na jednej nie chciała chodzić na drugiej. Szybko też zużywały się mechanizmy do przesuwania głowic i stacja po pewnym czasie nie mogła trafić w ścieżkę. Gdy flopy miały pojemności po 720KB/880KB to stacje produkował Panasonic, Sony, HP, ... ( przynajmniej je markowali) - potem weszła firma "Chinon" i dobre czasy się skończyły ;) Przez jakiś czas dobre FDD można było kupić pod USB - np. o prędkości odczytu 2x (~40KB/s :lol: ) ... Wiem że napedy FDD róznią się jakością ale test przeprowadziłem przy pomocy kilku dobrych napędów i w tym miałem napęd Sony na którym większość dyskietek 1.44 była nagrywana (napęd 1.44 w staryn laptopie IBM i tak był skuteczniejszy nawet w przypadku dyskietek nagrywanych na tym samym Sony) Któregoś dnia postanowiłem zrobić porządek ze starymi dyskietkami (po prostu większość wyrzucić ale wcześniej zgrać zawartość na dysk) Dyskietki miałem 5.25" 360 KB i 1.2 MB oraz 720 KB i 1.44 MB 3.5" Wynik tej operacji był mniej więcej taki: Wszystkie dyskietki 360KB, 720KB 1.2MB zostały odczytane pomimo że cześć z nich to była 360 KB 5.25" zapisane przed 1988 r. nie udało się odczytać sporej części tych z największą gestością zapisu czyli 1.44 3.5" pomimo że były znacznie nowsze. Co ciekawsze dysietki 1.44 nie dajace się odczytać nie miały wadliwego nośnika, pozwalały się formatować bez utraty pojemności a zapisane ponownie dały się czytać. Po roku czasu zrobiłem przegląd 1.44MB jeszcze raz i okazało się że część nie nadaje się do odczytu Były nagrane na najlepszym napędzie w laptopie IBM i odczytywane na tym samym. Producenci dysków twardych nie mogą zbyt długo testować nośnika pod wzgledem trwałości zapisu bo konkurencja nie śpi. Nie mogą nowego zapisanego modelu talerza trzymać i sprawdzać przez 20 lat przed wprowadzeniem na rynek aby sprawdzić trwałość zapisu, muszą trochę ryzykować. Dlatego zapewne wcześniej wstawiają gęściej zapisane talerze do tańszych modeli z krótszą gwarancją a modele dysków do serwerów z wysokim MTBF mają w tym samym czasie mniejszszą gęstość zapisu pomimo wymaganej wydjności. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość <account_deleted> Opublikowano 25 Sierpnia 2009 Zgłoś Opublikowano 25 Sierpnia 2009 Producenci dysków twardych nie mogą zbyt długo testować nośnika pod wzgledem trwałości zapisu bo konkurencja nie śpi. Nie mogą nowego zapisanego modelu talerza trzymać i sprawdzać przez 20 lat przed wprowadzeniem na rynek aby sprawdzić trwałość zapisu, muszą trochę ryzykować. To prawda - nikt tego nie testuje przez lata - bo są różne inne metody które pozwalają ten proces skrócić do tygodni/miesięcy - wystarczy próbkę poddać cyklicznym zmianom temp (odpowiednio dobranej) oraz zmiennemu polu magnetycznemu, symulując naturalne warunki w najgorszym możliwym wydaniu. Ilość utraconych danych pozwali określić i wyliczyć po jakim czasie algorytmy korygujące nie będą w stanie przywrócić pierwotnego zapisu. Tu jest właśnie istotna różnica - FDD to po prostu bardzo prymitywne urządzenie w porównaniu do HDD - te potrafią w dużym stopniu zregenerować sygnał z głowic, nawet gdy informacja "magnetyczna" została nadgryziona zębem czasu albo polem magnetycznym ;) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość dwaIP Opublikowano 25 Sierpnia 2009 Zgłoś Opublikowano 25 Sierpnia 2009 To prawda - nikt tego nie testuje przez lata - bo są różne inne metody które pozwalają ten proces skrócić do tygodni/miesięcy - wystarczy próbkę poddać cyklicznym zmianom temp (odpowiednio dobranej) oraz zmiennemu polu magnetycznemu, symulując naturalne warunki w najgorszym możliwym wydaniu. ... Samo negatywne działanie ziemskiego pola magnetycznego czy temperatur moze da się zasymulować na tyle wiernie by skrócić czas testów do tygodni. Pozostaje jeszcze mały kłopocik w postaci wielokrotnego zapisu w tym samym sektorze. Część oprogramowania tak działa że wykonuje permanentnie zapis w tym samum miejscu pliku , przykladowo silnik bazy danych w pliku indeksu, w plikach liczników operacji lub sum kontrolnych bazy. Na ile zagęszczenie zapisu może wpłynąć negatywnie na odporność nośnika na wielokrotny zapis dobrze ilustruje spadek odporności na wielokrotny zapis płyt DVD RW w stosunku do płyt CD RW. Mały kłopocik będzie dużym kłopotem jeśli trzeba będzie zasymulować mieszankę oddziaływania w czasie pola magnetycznego temperatur i wielokrotnego zapisu. Wolę nabyć dysk z talerzem przetestowanym na potrzeby serwerów i choć trochę w serwerach niż dysk który będzie zawierał talerz testowany u mnie na potrzeby przyszłych dysków do serwerów :) Jak zaczną sprzedawać dyski 7200 RPM z talerzami 500 GB do serwerów z ponad milionem godzin MTBF to zacznę się nad takim zastanawiać i być może po paru miesiącach tastowania w serwerach kupię dysk 7200 RPM z takim talerzem :) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
toms83 Opublikowano 25 Sierpnia 2009 Zgłoś Opublikowano 25 Sierpnia 2009 [...] Wolę nabyć dysk z talerzem przetestowanym na potrzeby serwerów i choć trochę w serwerach niż dysk który będzie zawierał talerz testowany u mnie na potrzeby przyszłych dysków do serwerów :) Czyli na chwilę obecną jakie dyski podchodzą pod tą teorię? :razz: Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Kwazor Opublikowano 25 Sierpnia 2009 Zgłoś Opublikowano 25 Sierpnia 2009 (edytowane) Niestety dwaIP... bedzie musiał na nie poczekac wiele lat .... wrecz bedzie to niemozliwe.. bo dyski w serwerach sa na talerzach 2.5 Cala a dlaczego to odsyłam do google... i czesto jest to 5 -7 talerzy... ( miałem SCSI 4.3GB z 10 ! ) Dysków do serwerów z 7200 to nie widze w ofertach dzsiejszych.. Piszecie ze dyskietki szybko wam się "kończa" to prawda bo dochodzi do DEMAGNESACJI nosnika... ( do demagnesacji jest tez potrzebna temperatura choc niezawsze bo domeny magnetyczne tez potrafia sie zmienic..) A dlaczego dyski serwerowe maja taka masywna obudowe ? Proste by dysk powoli sie nagrzewał i powoli stygł by nie doszło do wyzej opisanego zjawiska.... Edytowane 25 Sierpnia 2009 przez Kwazor Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość dwaIP Opublikowano 25 Sierpnia 2009 Zgłoś Opublikowano 25 Sierpnia 2009 Czyli na chwilę obecną jakie dyski podchodzą pod tą teorię? :razz:Najtańsze dla serwera typu entry level czyli 3.5" SATA 7200 RPM dostosowane do pracy 24/7 w RAID pod dużym obciążeniem. Niestety dwaIP... bedzie musiał na nie poczekac wiele lat .... wrecz bedzie to niemozliwe.. bo dyski w serwerach sa na talerzach 2.5 Cala a dlaczego to odsyłam do google... i czesto jest to 5 -7 talerzy... ( miałem SCSI 4.3GB z 10 ! ) Dysków do serwerów z 7200 to nie widze w ofertach dzsiejszych.. Trochę przesadziłeś ze stwierdzeniem że 3.5" 7200 nie stosuje się do serwerów. IBM DS3200 to nie jest urządzenie do komputerka medialnego ani laptopa tylko do serwera typu entry level : http://www-03.ibm.com/systems/storage/disk...3200/index.html Pasują do tego między innymi dyski SATA 3.5" 7200 RPM Są różne serwery i do tych najtańszych gdy potrzebna jest pojemność instaluje się jeszcze dyski 3.5" dostosowane do działania w RAID pod dużym obciążeniem 24/7 i prawdopodobieństwem wystąpienia nienaprawialnego błędu odczytu bitu poniżej jednego na 10 do 15 orzaz MTBF conajmniej 1.2 miliona godzin. czyli przykładowo RE3 , ES.2 , E7K1000, A7K2000 Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość <account_deleted> Opublikowano 25 Sierpnia 2009 Zgłoś Opublikowano 25 Sierpnia 2009 ...MTBF? :blink: - wskaźnik samozadowolenia producenta? Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość dwaIP Opublikowano 25 Sierpnia 2009 Zgłoś Opublikowano 25 Sierpnia 2009 ...MTBF? :blink: - wskaźnik samozadowolenia producenta?Nabywca indywidualny nie jest w stanie zweryfikować takiego wskaźnika. W przypadku rynku korporacyjnego to wskaźnik weryfikowalny przez korporację kupującą sprzęt. 1.2 milona godzin MTBF dla sprzętu 24/7 oznacza deklarację że nie padnie więcej niż 0.73% egzemparzy rocznie. Czyli jeśli korporacja zakupi 10000 dysków 24/7 z MTBF 1.2 milona to nie powinno paść w trakcie roku więcej niż 73 z zakupionych. Korporacje kupujące sprzęt wymieniają się takimi informacjami i producent podający zawyżone MTBF wypada z rynku korporacyjnego. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość <account_deleted> Opublikowano 26 Sierpnia 2009 Zgłoś Opublikowano 26 Sierpnia 2009 Tak masz rację - takie jest przeznaczenie tego wskaźnika, ale nikt kto ma pojęcie o dyskach nie będzie się tym sugerował - już raczej wskaźnikiem cena/pojemność - do biura, wydajność/pojemność/support/własne i innych doświadczenia - do serwera. Mało kto kupuje >1000 dysków na raz - a tu rządzi głównie prawo serii - patrz chociażby Barka .11 - MTBF to raczej by im nie wyszło. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
toms83 Opublikowano 26 Sierpnia 2009 Zgłoś Opublikowano 26 Sierpnia 2009 Tak masz rację - takie jest przeznaczenie tego wskaźnika, ale nikt kto ma pojęcie o dyskach nie będzie się tym sugerował - już raczej wskaźnikiem cena/pojemność - do biura, wydajność/pojemność/support/własne i innych doświadczenia - do serwera. Mało kto kupuje >1000 dysków na raz - a tu rządzi głównie prawo serii - patrz chociażby Barka .11 - MTBF to raczej by im nie wyszło. Oj to zdecydowanie nie poszło. Tak tu rozmawiamy i wychodzi na to że sama większa gęstość zapisu nie koniecznie wychodzi na dobre? Łatwiej/szybciej może się taki dysk zepsuć niż np. 333 GB na talerz. W końcu 500 GB/talerz nie jest od 2 lat dostępne, żeby ktoś mógł zweryfikować "padalność" nowych sztuk. Coś jak z SSD, jesteśmy beta testerami. :wink: Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość dwaIP Opublikowano 27 Sierpnia 2009 Zgłoś Opublikowano 27 Sierpnia 2009 Tak masz rację - takie jest przeznaczenie tego wskaźnika, ale nikt kto ma pojęcie o dyskach nie będzie się tym sugerował - już raczej wskaźnikiem cena/pojemność - do biura, wydajność/pojemność/support/własne i innych doświadczenia - do serwera. Mało kto kupuje >1000 dysków na raz - a tu rządzi głównie prawo serii - patrz chociażby Barka .11 - MTBF to raczej by im nie wyszło.Wszystkie parametry dysku odgrywają rolę w jego ocenie i każdy może oceniać nieco inaczej na własne potrzeby przykładając większą wagę do tego czy innego parametru. Cena/wydajność/pojemność/głośność/pobór prądu/niezawodność/trwałość Obiegowa opinia stwierdzająca że "im większa pojemność talerza to lepiej" stoi nieco w sprzecności z parametrem trwałość-niezawodność zwlaszcza w przypadku słabo przetestowanych przez użytkowników nowości. Jest jeszcze jeden parametr podawany przez producentów dysków: ograniczenie na częstotliwość wystąpienia nienaprawialnego błędu odczytu i jeśli prawdziwy to dość istotny zwłaszcza do serwera Do domowego komputerka wystarczy 1/(10 do 14) do serwera wskazne minimum to 1/(10 do 15) a do krytycznych 1/(10 do 16) . Trwalość jest coraz bardziej powiązana z ceną bo od niej zależy jak szybko dysk będzie musiał zostać wymieniony na nowy. Przykladowo w 1992 kupiłem dysk 40 MB, musiał trafić do szuflady bardzo szybko bo po 4 latach i jego trwalość nie odgrywała dużej roli. Podobnie było s dyskiem 340 MB kupionym chyba dwa lata póżniej ten był używany tylko o rok dłużej. Kupiony bodajże w 1996 1.2 GB wypadł z użytku po około 8 latach. Kupiony z laptopem IBM 3.2 GB w 1998 r jast używany do dzisiaj czyli około 11 lat. Wymienione wyżej dyski traciły swoją użyteczność głownie w wyniku zbyt małej pojemności. Kupiony w 2001 40GB ma nadal większą pojemność niż najtańsze dyski SSD i jest używanny. Kupiony w 2004 120 GB ma nadal zbliżoną pojemność do najtańszych sprzedawanych i zbliżoną wydajność, średnia odczytu HDTUNE to 44 MB czas dostępu to 14 ms. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...