Skocz do zawartości

Rekomendowane odpowiedzi

Takie pytanie odnośnie klonowania dysku i parametru align/ofset

 

Prawdopodobnie bede klonowal dysk (właścicielowi zależy na partycji recovery tak jak na oryginalnym hdd, tak wiem ze "zniknie" mu sporo GB na dysku ale jest tego swiadom) Acronisem na nowym laptopie na Plextora.

 

Czy po sklonowaniu dysku ten parametr bedzie ustawiony poprawnie? (windows 8  )

 

Czy przed wykonaniem tej operacji ustawic go wg opisu w temacie na 1024 ?

 

U siebie w stacjonarce instalowalem na czysto system ale w laptopie bede zmuszony zrobic clona lub jesli bedzie mozliwosc to przywrocenie systemu z plyt recovery.

Edytowane przez szogo

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

też właśnie zauważyłem promo, sam bralem swego czasu 830 po tańszej cenie, wesja evo będzie na bank droższa, przynamniej 400zł (111$) jak nie lepiej, no i trochę mam wąpliwości bo mniejsza wytrzymałość komórek, oczywiście rozpatrując wydajnościowo evo na pewno szybszy, a czy warto dopłacić, zalezy co jest priorytetem, szybkośc czy cena max.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

http://www.x-kom.pl/goracy_strzal/1173#

 

 

Brac to teraz czy czekać lepiej na wersje EVO ?

Ze względu na cenę to dobra oferta, ale wersja 120GB ma relatywnie słabą wydajność. Oczywiście w porównaniu do innych SSD a nie HDD.

 

Jeśli jesteś wstanie dopłacić te niecałe sto złotych to EVO będzie na pewno sporo wydajniejsze. Dokładając do tego RAPID MODE dostępny w EVO...

O trwałość komórek nie ma się co martwić.

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

O trwałość komórek nie ma się co martwić.

 

Tego akurat nie możesz zagwarantować.

 

Zapanował hura optymizm na temat tych dysków tylko na podstawie suchych recenzji.

Takie opinie jak twoja będzie można wydawać najwcześniej za pół roku.

  • Upvote 1
  • Downvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@radiergummi

Niby dlaczego? Były robione testy wytrzymałości ssd na tlc, choćby i na

http://us.hardware.info/reviews/4178/10/hardwareinfo-tests-lifespan-of-samsung-ssd-840-250gb-tlc-ssd-updated-with-final-conclusion-final-update-20-6-2013 i innych serwisach, jak tweakdown i anandtech.

 

W skrócie: w ubiegłorocznej recenzji autorzy wyliczyli teoretyczną żywotność tego nośnika, producent nie zgodził się z wyliczeniami, więc ekipa hardware.info przeprowadziła test na dwóch "osiemset czterdziestkach". Wyniki prezentują się następująco:

- na dysku #1 pierwszy poważny błąd skutkujący utratą danych pojawił się po 3 187 cyklach  i 764 TiB zapisu, natomiast padł zupełnie po 3 706 cyklach 888 TiB;

- na dysku #2 pierwszy realokowany sektor wystąpił po 3 152 cyklach i 745 TiB,  a pierwszy poważny błąd po 3 247 cyklach and 768 TiB zapisu.

 

Matematyka mówi, że w przypadku zapisu 10 GiB dziennie na dysku 256GB, komórki zostaną zarżnięte po... ponad 200 latach.

 

Myślę, że dwa stulecia wytrzymałości tlc pozwalają na wysunięcie stwierdzenia, że można być spokojnym.

 

@mój fan

PS Pozdrawiam fana, którego mocno boli moja osoba : )))

Edytowane przez Auguste Rodin

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A ja myślę, że taki test sekwencyjnego zapisu i odczytu nie pozwala jednak być do końca spokojnym, a 200 lat to czysta wirtualna teoria prawdę mówiąc do niczego nie przydatna. Prawdziwy test  przeprowadzi życie, ale oczywiście na to potrzeba czasu. Jest oczywiście mało prawdopodobne żeby Samsung nie przetestował wszechstronnie tej technologii, jednak to czego na pewno nie był w stanie zrobić, to uwzględnić chociażby czynnik czasowy. Zarzynanie dysku w ciągu kilku dni nie zastąpi "normalnego" reżimu np. domowego. Poza tym testowane są sample przedprodukcyjne, a nie to co zjeżdża potem masowo z taśmy. Podsumowując, myślę że nie ma się czego obawiać, ale też nie powinno się wysnuwać tak optymistycznych wniosków na podstawie uproszczonych testów....

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A ja myślę, że taki test sekwencyjnego zapisu i odczytu nie pozwala jednak być do końca spokojnym, a 200 lat to czysta wirtualna teoria prawdę mówiąc do niczego nie przydatna. Prawdziwy test  przeprowadzi życie, ale oczywiście na to potrzeba czasu. Jest oczywiście mało prawdopodobne żeby Samsung nie przetestował wszechstronnie tej technologii, jednak to czego na pewno nie był w stanie zrobić, to uwzględnić chociażby czynnik czasowy. Zarzynanie dysku w ciągu kilku dni nie zastąpi "normalnego" reżimu np. domowego. Poza tym testowane są sample przedprodukcyjne, a nie to co zjeżdża potem masowo z taśmy. Podsumowując, myślę że nie ma się czego obawiać, ale też nie powinno się wysnuwać tak optymistycznych wniosków na podstawie uproszczonych testów....

 

Uważasz, że losowe zapisy coś by zmieniły? Nie, bo po to w każdym obecnie produkowanym ssd jest zaimplementowana technika wear levelingu, polegającego na zrównoważeniu zużycia bloków pamięci. Jedyne, co by się zmieniło, to czas potrzebny na syntetyczne zarżnięcie dysku - byłoby go więcej, bo w tym samym czasie liczba przepuszczonych gigabajtów byłaby niższa, w porównaniu do zapisu sekwencyjnego.

 

Wszystko sprowadza się do liczby cykli zapisu, które spowodują uszkodzenie komórki nand flasha.

Edytowane przez Auguste Rodin

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 

Wszystko sprowadza się do liczby cykli zapisu, które spowodują uszkodzenie komórki nand flasha.

 

Skąd pewność, że tylko to? Znasz tak dobrze fizyczne podstawy tej technologii? Skąd masz pewność, że komórka zapisana jeden raz a potem nadpisana po 2h doznaje takiego samego zużycia, co komórka zapisana jeden raz, następnie nadpisana po 2 miesiącach? Wg Ciebie to to samo, a wg mnie nie. Oczywiście różnice mogą bardzo subtelne, może nawet do pominięcia, nie sądzę jednak byś mógł to wiedzieć na pewno. I jak na zużycie wpływały np. różnice temperatur przez te 2 miesiące, gdy ktoś np. przenosił laptopa zimą z domu do biura i na odwrót...Nigdy nie ma pewności, czy przewidziałeś wszystkie czynniki, dlatego jak jest naprawdę dowiesz się za jakiś czas. Oczywiście życzę nam wszystkim, żeby było tak jak piszesz - idealnie, ale co do zasady nadinterpretujesz w ten sposób wyniki testów. To nie znaczy że testy są złe, bo innych zrobić się nie da, tylko trzeba z rezerwą ferować prognozy na ich podstawie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Uważasz, że losowe zapisy coś by zmieniły? Nie, bo po to w każdym obecnie produkowanym ssd jest zaimplementowana technika wear levelingu, polegającego na zrównoważeniu zużycia bloków pamięci. Jedyne, co by się zmieniło, to czas potrzebny na syntetyczne zarżnięcie dysku - byłoby go więcej, bo w tym samym czasie liczba przepuszczonych gigabajtów byłaby niższa, w porównaniu do zapisu sekwencyjnego.

 

Wszystko sprowadza się do liczby cykli zapisu, które spowodują uszkodzenie komórki nand flasha.

Niestety nie, losowe 4kB (i inne małe pliki) zużywają komórki znacznie szybciej.

Jednak wciąż nie ma powodu do zmartwień - żaden producent nie odważy się wyprodukować czegoś co byłoby marketingową klęską.

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Dodaj odpowiedź do tematu...

×   Wklejono zawartość z formatowaniem.   Przywróć formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

Ładowanie


×
×
  • Dodaj nową pozycję...