Skocz do zawartości
surix

Geforce Fx 5900 / U / Xt / 5950 U

Rekomendowane odpowiedzi

Poprzedni temat osiagnął już olbrzymi rozmiar - dlatego też otwieram jego kolejną czesc.

Cz. I zostaje zamknieta i staje sie pewnego rodzaju archiwum Waszej wiedzy - link do niej -> Geforce Fx 5900 / U / Xt / 5950u cz. I

 

 

Zapraszam do dalszej dyskusji.

 

 

FAQ FX 5900XT

 

Spis treści:

I Specyfikacja karty

II Pamięci

III Rdzeń (GPU)

IV Chłodzenie

V BIOS

VI Wyniki

VII Sterowniki

VIII BIOSY

IX Przydatne linki

X Testy, porównania

XI Ranking O/C 5900XT

 

 

 

I Specyfikacja:

Nazwa kodowa: NV35

Silnik: CineFX 2.0

Rdzeń: 390Mhz

Pamięć: 350Mhz (efektywnie 700Mhz)

Liczba potoków: 4

Jednostki TMU na potok: 2

Magistrala: 256bit

Przepustowość: 22,4 GB/s

Ilość pamięci: 128mb (2.8 ns)

 

FX 5900 XT pobiera około 80W- 90W podczas obciążenia dlatego do tej karty zalecany jest dobry, markowy zasilacz który zasili tą kartę. Najpopularniejszymi firmami, które w Polsce wydawały na rynek 5900XT są: Leadtek, Gainward, Prolink, MSI oraz Gigabyte. Są także mniej znane firmy takie jak Galaxy, XFX ale występowały w Polsce bardzo rzadko dlatego nie ma sensu ich przedstawiać.

 

II Pamięci:

FX 5900XT zasłynął z tego, że producenci tych kart montowali w nich dużo szybsze pamięci, które można było bardzo wysoko przetaktować niż standardowe 2.8ns dlatego przedstawiam tutaj jakie najczęściej montowane były pamięci u danych producentów:

 

Leadtek: Hynix 2.8 ns lub 2.2 ns (2.2ns miały najczęściej wczesne wersje)

Gainward: Hynix 2.8ns, 2.5ns, 2.2ns (większość 2.2ns, rzadko występowały 2.5ns)

Prolink: 2.8ns lub 2.2ns

MSI: Hynix 2.8ns lub 2.5ns (często 2.5ns)

Gigabyte: Hynix lub Samsung 2.8ns

 

O/C pamięci:

2.8ns - od 700Mhz do ok. 780Mhz powyżej już się kończą

2.5ns - od 800Mhz do ok. 860-880Mhz

2.2ns - od 900Mhz do ok. 960-980Mhz :twisted:

 

Mała ciekawostka :)

Pamięci o symbolu F-28 w moim przypadku zawsze miały 2.2ns (mam 5 Fx-a) :D , z kolei AF-28 były najczęściej 2.8ns, chociaż to nie musi być regułą. :wink:

 

Każdorazowe podkręcenie pamięci o 50Mhz daje około 100 pkt. Przyrostu w 3dmark03 co przekłada się na stabilniejszy FPS w grach itp.

 

III GPU:

Standardowo rdzeń taktowany jest z częstotliwością 390Mhz, ale jest to praktycznie kopia „pełnego” FX 5900 albo nawet 5950 ultra dlatego podkręcenie GPU jest wskazane, różnica jakie dzieli XT a 5950 ultra wynika z napięcia zasilającego rdzeń który jest po prostu wyższe w 5950, aby karta taktowała zegarem 475Mhz. W przeciwieństwie do pamięci rdzeń daje stosunkowo duży wzrost mocy i co z tym związane większy FPS. Możliwości podkręcenia GPU zależą od samej karty i nie da się tutaj przewidzieć ostatecznego wyniku. Każdorazowe podkręcenie rdzenia o 50Mhz daje ok. 300-500 pkt. przyrostu w 3dmark03.

 

O/C GPU:

Standard: 390Mhz

420-430- dość słabo (przyczyny: słaby model-szczególnie, kiedy karta była w serwisie przechodzona itp.; przegrzewanie; słaby zasilacz; zbyt wysokie podkręcenie pamięci na grafice)

450-460- większość modeli na tyle idzie

480-500- bardzo dobry wynik

 

Możemy poprawić O/C GPU robiąc na nim v-moda :twisted2: jest to dość ryzykowne posunięcie, ale jeśli na karcie jest dobre chłodzenie i znasz się na lutowaniu nie ma przeciwwskazań.

 

*Prolink robił karty na innym PCB niż standardowe karty innych firm, to znaczy, że standardowe v-mody nie będą pasowały do tej karty!

Standard napięcie rdzenia:

2D- 1.2V

3D- 1.4V

WARNING: Nie wolno przekraczać 2.0V na GPU, ponieważ powyżej tej wartości karta bardzo szybko się spali :!: :!:

Trzeba pamiętać także o tym, że im wyżej podkręcimy pamięć tym gorzej podkręci się rdzeń i na odwrót, ponieważ zbyt wysokie podkręcenie jednego z tych elementów powoduje, że drugi układ ma mniej energii zasilającej a co za tym idzie mniejszą sprawność, dlatego czasem po obniżeniu pamięci rdzeń może pójść wyżej i dać większy przyrost wydajności niż bardzo wysoko podkręcone pamięci.

 

IV Chłodzenie:

 

W zależności od producenta FX5900Xt miał montowane różne chłodzenie, które dobrze spisywało swoje zadanie. Temperatura w stresie na standardowym chłodzeniu nie powinna przekraczać 75-80st., jeśli temp. Jest wyższa należy sprawdzić:

-czy chłodzenie jest dobrze zamocowane

-czy nie ma szczelin pomiędzy GPU a radiatorem

-czy nie ma zbyt małej ilości pasty na GPU

Dla uzyskiwanych niższych temp. można ściągnąć heat spreader (metalowa płytka zamontowana na rdzeniu karty), ale nie daje to zauważalnej poprawy temp., jest to tylko opcja do extremalnego podkręcenia karty. Do podkręcenia rzędu gpu/mem: 500/900 standardowe chłodzenie się nie nadaje. Jednym z dwóch bardzo dobrych chłodzeń powietrznych dla 5900XT jest ARCTIC COOLING NV Silencer 3 Rev. 2. Bez problemu karta będzie mogła pracować z ustawieniami 500/900 bez ryzyka o uszkodzenie czy przegrzanie. Produk ma miedzianą podstawe co pozwala na bardzo dobre odprowadzanie ciepła oraz cicha pracę. Montaż chłodzenia jest bardzo prosty, a sam produkt jest bardzo tani ok. 25-30zł. Kolejnym znakomitym chłodzeniem jest Zalman VF700 ALCU, produkt jest wykonany z aluminium oraz miedzi, dzięki rozłorzystej budowie doskonale odprowadza ciepło z GPU, plusem jest także to że do Zalmana dołączone są radiatory na kości BGA które bdb spełniają swoją role. Dodatkowym argumentem do zakupienia powyższych systemów chłodzacych jest to że karty Leadteka i MSI mają zasłonięte standardowym chłodzeniem kości pamięci, uniemożliwia to poprawny montaż radiatorów na nich a i Silencer i Zalman już takie chłodzenie kości posiadają. Do karty z v-modem najlepszym wyjściem będzie zamontowanie WC. :)

 

V BIOS:

Chociaż nigdy nie flashowałem biosu :razz: w 5900XT to ogólnie wiadomo, że nie opłaca się zapożyczać biosu od 5950Ultra i flashować nim naszą karte, pozwoli to na pewno na uzyskanie wysokich częstotliwości na GPU (wyższe napięcie zasilające) oraz na pamięciach, ale co za tym idzie poluźnia timingi na pamięciach i nie ma realnie dużego wzrostu wydajności w poszczególnych aplikacjach. Najlepszym sposobem jest samemu zmodyfikować bios lub ściągnąć już gotowy zmodyfikowany, uzyskiwane częstotliwości będą niższe, ale wydajność będzie lepsza niż w przypadku biosu 5950Ultra.

 

VI Wyniki

W obecnych grach FX5900XT nie radzi sobie zbytnio a to z powodu słabych shaderów, które w środowisku DX 9.0 są bardzo wolne i czesto ustępują Radeonom 9600XT, 9700. Chociaż w niezbyt wysokich detalach można jeszcze komfortowo pograć, szczególnie w DX 8.1 gdzie nie ma problemu z tymi shaderami. :razz:

 

Poszczególne wyniki w 3dmarkach:

2001se: powinno być od 13-15tyś, zależy to od proca, ponieważ 3dmark2001se jest bardzo od niego uzależniony.

2003: od 4800-5300, też w zależności, jaki proc z nią współpracuje.

2005: od 900-1100.

 

VII Sterowniki

Osobiście używam sterowników modyfikowanych Xtreme-G ze strony tweaksrus.com w wersji 84.20.v2, są bardzo dobre w DX 9.0 dlatego ich używam, jest jeszcze wiele innych sterowników np. Zeropoint, Omega ale to wy musicie znaleźć odpowiednie dla siebie bo każde dają relatywnie lepszą wydajność w innym środowisku.

 

Jeszcze jedno, FX 5900/XT/U oraz 5950Ultra ma 4 potoki!!! (słownie: cztery), w wielu tabelach jest pokazane 8/1 ale jest to nieprawdą, organizacja potoków jest 4/2 i między innymi z tego powodu FX ma tak słabe shadery.

 

BIOSY

 

BIOSy 5900/U/XT

 

 

 

IX Strony

 

tweaksrus.com - sterowniki

www.omegadrivers.net-sterowniki

www.comexgroup.com- opis V-moda

Riva tuner-program do podkręcania waszych Fx-ów :)

xbitlabs.com [mod 5900XT]-poradnik podkręcania 5900XT

www.xtremesystems.org- V-mod

orthy.de-dobre zdjęcia i dobrze opisany v-mod

Flash biosu- flash biosu na 5950U, jeśli ktoś chce niech skorzysta :-P

 

X Testy

 

benchmark.pl-specyfikacje, recenzje różnych producentów

in4.pl- recenzja Leadteka 5900XT

twojepc.pl- FX5700, FX5700 Ultra, FX5900XT kontra R9600Pro, R9600XT

hardwarezone.com - zbiorowy test kart 5900XT wielu producentów

pclab.pl- test Gigabyte FX 5900XT

sirius.pl- Gigabyte FX 5900XT vs Radon 9800PRO

-------------------------------------------------------------------------------------------------------------------------------------

 

XI Ranking O/C

 

1. surix

P4 3.0Ghz@3.75Ghz | WinFast 5900XT + Nv silencer 3 | Drivers: XG 84.20.v2

490Mhz/920Mhz - 6848 pkt.

2. yuucOm

Athlon64 3000+@2.5Ghz | Gainward FX 5900XT + Nv silencer 3 + As5 | Drivers: Forceware 66.93

479Mhz/890Mhz - 6759 pkt.

3. pietach

P4 2.6@3.0Ghz | Gigabyte FX 5950U + Nv silencer 3 | Drivers: 91.31

520Mhz/880Mhz - 6636 pkt.

4. ZOh1w2

Sempron 2400+@2100Mhz | WinFast 5900XT | Drivers: 84.21

560Mhz/980Mhz - 6531 pkt.

5. Venom

Sempron64 2800+@2.4Ghz | WinFast 5900XT + Zalman VF-700 AlCu 12V | Drivers: ForceWare WHQL 81.85

475Mhz/870Mhz - 6309 pkt.

 

 

-------------------------------------------------------------------------------------------------------------------------------------

Copyright: surix

Foty Zalmana: Venom THX

Edytowane przez surix

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A co wy z nimi zrobiliście że do servisu trafiły ?? :-P

u mnie spalił sie jakiś układ, karta wróciła z serwisu z wlutowanym nowym ale za to radiator był oderwany i narobił troche szkód na PCB :?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

4x2 :? dlatego w shaderach dostaje od 9700

Nie tylko dlatego bo np. 4 potokowy R9600PRO a nawet 9550 w oprogramowaniu silnie korzystajacym z jednoski PS sa szybsze od FX'a5950.

Problem jest w tym ze jednoska PS w FX'ach jest bardzo slaba. Juz na sam poczatek potrafi wykonac mniej operacji na cykl zegara niz radeony z serii R3x0. jednoskta PS w FX'ach potrafia wykonac 3 operacje na cykl zegara a w analogicznym Ati jednostka PS moze wykonac 5 operacji na cykl. To duza roznica przy takatowaniu liczonym w setkach MHz. Dlatego min. FX'y w programach intensywnie korzystajacych z PS sa tak slabe.

FX5900 byl dobra karta w chwili premiery bo nie blo programow korzystajacych z PS, dopiero takowe zaczynaly powstawac. Pierszym zwiastunem slabosci FX;ow byl 3DMark03 pod ktory nVidia szybko wprowadzila optymalizacje aby podniesc ilosc pkt. na FX'ach. Jednak to tylko benchmark wiec kogo to interesuje, wazne sa tylko rezultaty w grach a tutaj FX'y radzily sobie bradzo dobrze bo gry albo nie obslugiwaly PS2.0 albo byla to szczatkowa obsluga dlatego spadek wydajnosci byl maly. Jednak po wyjsciu Tomb Raidera Angle of Darknes i FarCry wszystko bylo jasne. FX'y nie nadaja sie do gier z PS2.0. Dlatego pchanie sie dzisiaj w FX'y to nieporozumienie no chyba ze karta jest tania np. 200zl. za 5900 to mozna brac ale wiecej juz nie bo mozna kupic lepsze karty a ceny jakie sa na allegro czyli w okolicy 300-400zl. to smiech na sali. Tylko "niedoinformowany" to kupi bo za niewiele wiecej mozna miec np. GF6600(uzywke) lub R9700PRO a nawet mozna wyrwac 9800PRO.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Problem jest w tym ze jednoska PS w FX'ach jest bardzo slaba. Juz na sam poczatek potrafi wykonac mniej operacji na cykl zegara niz radeony z serii R3x0. jednoskta PS w FX'ach potrafia wykonac 3 operacje na cykl zegara a w analogicznym Ati jednostka PS moze wykonac 5 operacji na cykl.

Witam! Skad masz takie info..? Jeżeli to jest z jakiegoś źródła konkretnego, to poprosze namiary-chetnie sie czegos dowiem na ten temat. Pozdro!!

 

PS. Myslal juz moze ktos z WAS o napisaniu FAQ na 1 stronie..?

 

EDIT:

Grał z WAS ktoś na FX'ie w Obliviona..? Pytałem się o to w wątku o tej grze i podobno tylko sie uruchamia i to juz jest koniec dobrych informacji, pozniej na pw napisalem do jednego czlowieka co ma FX'a i mi odpowiedzial, ze da sie go tak dostroic (okroic detale), ze da sie grac... Jak to jest..? Ciekawe czy duzo lepiej jest na Radeonie 9800..?

Edytowane przez udam_u

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Witam! Skad masz takie info..? Jeżeli to jest z jakiegoś źródła konkretnego, to poprosze namiary-chetnie sie czegos dowiem na ten temat. Pozdro!!

Dobrze ze mam dobra pamiec ;)

http://pclab.pl/art7034.html

 

PS

I zapomnialem(jednak pamiec szwankuje :P) ze to co podalem to jest dla staloprzecinkowej precyzji dla zmienno przecinkowej jest jeszcze gorzej

" GeForce FX wykonuje wtedy tylko 8 operacji na cykl zegara (3,6 mld operacji na sekundę), zaś RADEON 9800 - nadal 40 operacji na takt."

 

Dla FX'a przy 4 potokach wykonuje 8 op. zmiennoprzecinkowych czyli jeden potok moze wykonac 2 operacje a 1 potok w radeonie nadal moze wykonac 5 op.

Jak widac FX'y sa strasznie slabe, juz na starcie nie dosc ze maja 2x miej potokow to jeszcze potok moze wykonac 2,5x mniej operacji na takt wiec FX musialby miec 5x wyzszy zegar aby teoretycznie miec taka sama wydajnosc jednoskti PS w zmiennoprzecinkowej precyzji jak radeon 9800PRO.

 

PS2

No i PS w radeonie R3x0 oblicza w 24bit'owej preczji podczas gdy FX w 16bit'owa(czesciowa) lub 32bit'owej precyzji. Roznica w jakosci miedzy 32 a 24bit'owa nie jest latwo zauwazalna ale roznica miedzy 16bit'owa a 24bit'owa precyzja jest juz zawuwazlna a roznice w obliczeniach miedzy 32bit'owa a 24bit'owa precyzja sa znacznie wieksze bo obliczenia zwiekszaja sie wykladniczo czyli FX nie dosc ze ma slabsza jednoske PS to przy pelnej precyzji musi wykonac wiecej obliczen a do czego to doprowadza nie trzeba chyba tlumaczyc.

FX'y ratowala optymalizacja czyli wykorzytywanie 16bit'owej i 32bit'owej precyzji w grach. Poprostu gdzie nie potrzebne byla pelna precyzja korzystano z 16bit'owej precyzji a gdzie byla potrzebna z 32bit'owej precyzji. Radek R3x0 zawsze liczy w 24bit'owej precyzji nie obsluguje 16bit;'owej ale co z tego skoro jest ona i tak szybsza od 16bit'owej precyzji w FX'ach.

Poprostu FX'y potrzebuja optymalizacje kodu aby dzialac z zadawalajaca szybkoscia w grach z duzym wykorzystaniem PS a tego dzisiaj ani jedna firma tworzaca oprogramowanie nie robi bo po co skoro sa nowe znacznie szybksze karty jak np. wspomniany GF6600.

Coz to bylo do przewidzenia, FX'y mialy pomoc w przetrwaniu trudnego okresu i zdaly egzamin a dokladnie marketing nVidi zdal egzamin :)

Edytowane przez sucker

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Grał z WAS ktoś na FX'ie w Obliviona..? Pytałem się o to w wątku o tej grze i podobno tylko sie uruchamia i to juz jest koniec dobrych informacji, pozniej na pw napisalem do jednego czlowieka co ma FX'a i mi odpowiedzial, ze da sie go tak dostroic (okroic detale), ze da sie grac... Jak to jest..? Ciekawe czy duzo lepiej jest na Radeonie 9800..?

NIe grałem ale było by aż tak źle że ledwo się uruchamia :?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ja jak będe miał zasiłkę (:-P) to załatwię sobie Obliviona i wtedy powiem jak to jest z tym włączaniem.

Piękne jest to że pisząc coś w tematach człowiek się uczy.....

@Dark Arrow

Jak kiedys przeglądałem tabelę z Benchmarka to pisało 8x1 - tym się wzorowałem.

Aczkolwiek dzięki że mnie czegoś nauczyłeś.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dobrze ze mam dobra pamiec ;)

http://pclab.pl/art7034.html

Hmmm no to byłoby racjonalne uzasadnienie :) Taki stary ten artykul a dopiero teraz go ktoś wygrzebał na wierzch :). Nie zmienia to faktu, że FX w swoim czasie spisywał się świetnie a teraz do Obliviona trzeba miec jakiegos Palit GF 6800 GS 512MB :lol: Zamierza ktos pisac FAQ na pierwszej stronie..? Jak myslicie co tam powinno sie znalezc..? Pozdro!!!

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Hmmm no to byłoby racjonalne uzasadnienie :) Taki stary ten artykul a dopiero teraz go ktoś wygrzebał na wierzch :). Nie zmienia to faktu, że FX w swoim czasie spisywał się świetnie a teraz do Obliviona trzeba miec jakiegos Palit GF 6800 GS 512MB :lol: Zamierza ktos pisac FAQ na pierwszej stronie..? Jak myslicie co tam powinno sie znalezc..? Pozdro!!!

W FAQ powinna byc min. specyfikacja, opis kart i roznic, opis zmiany biosu, vmodow, opis zmiany chlodzenia, wybor najlepszego chlodzenia, jak podkrecac, jak pilnowac aby karta sie nie przegrzala, jakie timingi dobrze jest ustawic, jakie stery sa dobre np. do opdowiednich markow, ile srednio na roznych kompach mozna uzyskac pkt. w najpopularniejszych benchmarkach czyli min. 3Dmark01,03,05, Aqumark. Jak skonfigurowac karte aby dac jak najlepsza jakosc obrazu lub w miare dobra jakosc obrazu przy zwiekszonej wydajnosci.

Mysle ze to by wystarczylo na FAQ. No i nie zapomniec o zdjeciach najpopularniejszych kart.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Dodaj odpowiedź do tematu...

×   Wklejono zawartość z formatowaniem.   Przywróć formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

Ładowanie



×
×
  • Dodaj nową pozycję...