Skocz do zawartości
Polaros

Teraz modujemy FXy :D

Rekomendowane odpowiedzi

No no, piekna sprawa. Nawet w PS2.0 przewyzsza R9800XT :)

Haha... Nice one. Testowanie Pixel Shader'a 2.0 w Halo mija się po prostu z celem - LOL. 3DMark2003 wiadomo jak tak naprawdę działa na FX'ach... Te testy porównawcze można pczywiście brać pod uwagę przy porównywaniu tych dwóch kart, ale nie zapomnijcie przy tym z przymrużyć nieco oczka :P.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeżeli XT pójdzie załóżmy na te 400/850 MHz to czemu nie? Core z pewnością bez zająknięcia powinien działać z FX5950U zegarem, ale, pamięciom 2.86ns Samsunga nawet BIOS niewiele pomoże. Chyba, że ten XT posiada Hynixy. 8)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Zdaje sie Gainward pakuje do "XTekow" takie same pamieci jak do pelnych 5900 - zgadza sie ?

Możliwe, że tak. Zresztą karty Gainwarda z serii Golden Sample, zawsze posiadały podwyższone napięcie VDD i VMEM... i czasami lepsze pamięci od tych, rekomendowanych przez NVIDIA. IMHO i tak najelpsze kostki wrzuca do swych kart......... Prolink. Nie widziałem jeszcze karty Prolinka, która słaboby się podkręcała. Ciekawe dlaczego...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

http://pclab.pl/art9430.html

 

Szkoda tylko ze jakosc obrazu jest mizerna w porownaniu z Ati :( Nadal bede szukal 9800pro ale i tak opcja z tymi FX ami jest fajna :D

boshe i znowu z ta jakoscia obrazu :/ to juz sie nudne robi, FX nie ma gorszej jakosci obrazu. Roznice dotyczyly gf4 i 3

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

boshe i znowu z ta jakoscia obrazu :/ to juz sie nudne robi, FX nie ma gorszej jakosci obrazu. Roznice dotyczyly gf4 i 3

Racja. Załosne. IMHO topowe GeForce FX mają teraz przewagą nad ATI w kwestii obrazu 2D... Digital Vibrance Control robi swoje.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Zdaje sie Gainward pakuje do "XTekow" takie same pamieci jak do pelnych 5900 - zgadza sie ?

Możliwe, że tak. Zresztą karty Gainwarda z serii Golden Sample, zawsze posiadały podwyższone napięcie VDD i VMEM... i czasami lepsze pamięci od tych, rekomendowanych przez NVIDIA. IMHO i tak najelpsze kostki wrzuca do swych kart......... Prolink. Nie widziałem jeszcze karty Prolinka, która słaboby się podkręcała. Ciekawe dlaczego...

No to ja cie oswiece :D moj prolink sie bardzo ladnie podkreca , pamieci ida nawet na 670 tyle ze powyzej 630 spada wydajnosc . Moim zdaniem pamieci sa niedovoltowane i to ich wina :(

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

hehe ROTFL! nie wiem na czym polega ten mod... takiego moda można zrobić na kazdej karcie podnoszac Vcore i Vdimm... ,wiec nie wiem czym tu można sie cieszyć. NVidia ostro stara sie tuszować ogromną niedoskonałość PS 2.0... która z obsługą sprzętową chyba nie ma nic wspólnego ,shadery są fatalne ,a optymalizacje NVidi mozna sobie... Radek zgodze sie z tobą w 100% te testy DX9 mijają sie z celem. Hhehe zreszta popatrzcie kto jest autorem testu :D i wsyztsko jasne ,pan Vegita który już nie jedne bajki pisał... wszyscy wiemy jaki jest on stronniczy. Ok zgodze se ze 5900XT jest w koncu jakims sensownym wyborem od NV ,ale nie przesadzajmy w aplikacjach DX9 jest za R350 ,co z tego ze w testach dorównuje? jak w grach gdzie nie ma optymalizacji bedzie dostawał po pupie ,w benchmarki sie nie gra

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

hehe ROTFL! nie wiem na czym polega ten mod... takiego moda można zrobić na kazdej karcie podnoszac Vcore i Vdimm... ,wiec nie wiem czym tu można sie cieszyć. NVidia ostro stara sie tuszować ogromną niedoskonałość PS 2.0... która z obsługą sprzętową chyba nie ma nic wspólnego ,shadery są fatalne ,a optymalizacje NVidi mozna sobie... Radek zgodze sie z tobą w 100% te testy DX9 mijają sie z celem. Hhehe zreszta popatrzcie kto jest autorem testu :D i wsyztsko jasne ,pan Vegita który już nie jedne bajki pisał... wszyscy wiemy jaki jest on stronniczy. Ok zgodze se ze 5900XT jest w koncu jakims sensownym wyborem od NV ,ale nie przesadzajmy w aplikacjach DX9 jest za R350 ,co z tego ze w testach dorównuje? jak w grach gdzie nie ma optymalizacji bedzie dostawał po pupie ,w benchmarki sie nie gra

Zgadzam sie i mi wogóle trudno nazwać to modem bo sflashowanie biosu to jeszcze nie mod.Przy ATI to są mody przez duże M.No i w grach pod DX 9.0 zaczynają sie problemy bo bez opymalizacji FX bardzo słabiutko chodzi.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No no, piekna sprawa. Nawet w PS2.0 przewyzsza R9800XT :)

Haha... Nice one. Testowanie Pixel Shader'a 2.0 w Halo mija się po prostu z celem - LOL. 3DMark2003 wiadomo jak tak naprawdę działa na FX'ach... Te testy porównawcze można pczywiście brać pod uwagę przy porównywaniu tych dwóch kart, ale nie zapomnijcie przy tym z przymrużyć nieco oczka :P.

Taaa, a jeszcze trzeba pod uwage brac, ze najwiekszy wplyw na wynik sumaryczny Marka ma wplyw nie ostatni, "naturalny" test, a przedostatni (Proxycon) gdzie nie ma PS2.0

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

jakość obrazu na FX obecnie pzrewyższa nawet radeony, załóżmy że jes tten sam poziom.

a wyjście traci się tylko przy zastosowaniu biosu od winfasta, bios od tej samej firmy nie ma tego problemu. modzik lepszy niż 9800se-->9800pro :) przelutowując jeden rezystorek koło rdzenia, pod blaszką osłaniającą, dodatkowo można quaddor zrobić.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

..tutaj http://pclab.pl/art9395.html naprawde dali ciala. robia sobie testy kart za tysiac zlociszy i wogole zapominaja AA i AF :!: :?: i na tej podstawie snuja sobie jakies hipotezy. to jest jakas smierdzaca sciema albo przejaw jawnej ignorancji. a na dokladke komentujacy nosza rozowe okulary ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

jakość obrazu na FX obecnie pzrewyższa nawet radeony, załóżmy że jes tten sam poziom.

a wyjście traci się tylko przy zastosowaniu biosu od winfasta, bios od tej samej firmy nie ma tego problemu. modzik lepszy niż 9800se-->9800pro :) przelutowując jeden rezystorek koło rdzenia, pod blaszką osłaniającą, dodatkowo można quaddor zrobić.

a z 9800SE zrobisz FireGL... które wymiecie quadro! ,Co do jakośc obrazu (wyjscie DVI) to obie firmy doszły do takiego poziomu ktory jest moim zdaniem nie do pobica już... wiec o jakich przewyższaniach ty mówisz :o? obie karty osiągneły appoogeum! które jak narazie blokuje chyba tylko jakość wyświetlaczy. Chodzi mi o jakośc 2D! bo 3D NVidia ma mocno naciąane i przwałowane. Pozatym Quadro 99% uzytkownikom nic nie da...! (wiem bo modowalem Geforce na Quadro... 0 przyrostu wydajnosci w direct3d)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

jakość obrazu na FX obecnie pzrewyższa nawet radeony, załóżmy że jes tten sam poziom.

a wyjście traci się tylko przy zastosowaniu biosu od winfasta, bios od tej samej firmy nie ma tego problemu. modzik lepszy niż 9800se-->9800pro :) przelutowując jeden rezystorek koło rdzenia, pod blaszką osłaniającą, dodatkowo można quaddor zrobić.

a z 9800SE zrobisz FireGL... które wymiecie quadro! ,Co do jakośc obrazu (wyjscie DVI) to obie firmy doszły do takiego poziomu ktory jest moim zdaniem nie do pobica już... wiec o jakich przewyższaniach ty mówisz :o? obie karty osiągneły appoogeum! które jak narazie blokuje chyba tylko jakość wyświetlaczy. Chodzi mi o jakośc 2D! bo 3D NVidia ma mocno naciąane i przwałowane. Pozatym Quadro 99% uzytkownikom nic nie da...! (wiem bo modowalem Geforce na Quadro... 0 przyrostu wydajnosci w direct3d)

o ile wiem to Quadro zjada FireGl na sniadanie niemal we wszystkich profesjonalnych aplikacjach

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

dokładnie, na rynku profesjonalnym nVidia nie ma konkurencji, ATi nie podskoczy. tam nie ma pisania pod firmę, rynek prof. jest bardziej stabilny niż rynek gier.

 

W 3D też osiągnęły apogeum ;) tak serio to jedyna różnica to AA i aznizo, oraz kanty ATi :

Dołączona grafika

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

dokładnie, na rynku profesjonalnym nVidia nie ma konkurencji, ATi nie podskoczy. tam nie ma pisania pod firmę, rynek prof. jest bardziej stabilny niż rynek gier.

 

W 3D też osiągnęły apogeum ;) tak serio to jedyna różnica to AA i aznizo, oraz kanty ATi :

Dołączona grafika

:lol: :lol: Jak na razie NV ściemnia robi w c@*# swoich klijętów pisząc na pudełku DX 9.0 :x Wieczne optymalizacje do gier z DX 9.0. :x Nerwice u posiadaczy FX jak mu przyjdzie zagrać w gre pod DX9.0 bez optymalizacji :x :evil: :!:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

hehe ROTFL! nie wiem na czym polega ten mod... takiego moda można zrobić na kazdej karcie podnoszac Vcore i Vdimm... ,wiec nie wiem czym tu można sie cieszyć. NVidia ostro stara sie tuszować ogromną niedoskonałość PS 2.0... która z obsługą sprzętową chyba nie ma nic wspólnego ,shadery są fatalne ,a optymalizacje NVidi mozna sobie... Radek zgodze sie z tobą w 100% te testy DX9 mijają sie z celem. Hhehe zreszta popatrzcie kto jest autorem testu :D i wsyztsko jasne ,pan Vegita który już nie jedne bajki pisał... wszyscy wiemy jaki jest on stronniczy. Ok zgodze se ze 5900XT jest w koncu jakims sensownym wyborem od NV ,ale nie przesadzajmy w aplikacjach DX9 jest za R350 ,co z tego ze w testach dorównuje? jak w grach gdzie nie ma optymalizacji bedzie dostawał po pupie ,w benchmarki sie nie gra

Co za wariat bedzie lutowal i zmienial Vcore i Vdimm skoro bez tego mozna zmodowac karte. Nie dosc, ze mniej pracy to system ja wychwytuje jako 5950 ULTRA. Do tego ma taktowania domyslnie wyzsze wiec nie trzeba podkrecac (wiem argument zerowy ale zawsze in plus).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

hm, mnie tylko jedno ciekawi. Skoro tyle gier jest robionych z optymalizacjami, to moze w tym jest wlasnie rzecz? Przeciez gdyby gry nie byly optymalizowane, to mielibysmy cos w stylu doom3 alpha. Tam brak optymalizacji. Natomiast, czy wybierzemy ATI, czy NVIDIE za taka kase, to i te gry z optymalizacjami i bez beda chodzic plynnie w max detalach. Nie rozumiem problemu. A jak stac Cie na taka karte, to bedzie Cie stac na nowa za rok. Czasami mam wrazenie, ze klocicie sie co jest lepsze tylko dlatego, ze chcecie obronic swoj zakup i swoje wydane pieniadze. Kazdy bedzie bronil swojego. Ponadto mi tam optymalizacje pod nv nie przeszkadzaja. Jesli zrobia optymalizacje pod ATi, tez jest ok, przynajmniej posiadacze tych kart beda mogli sie bawic "plynniej". Natomiast, jesli gra bylaby bez optymalizacji, to i NV i ATi dzialaloby tak samo. Nie rozumiem wiec sporu. Jedni maja szczescie, ze ich ulubiona gra jest pod nv pisana, a drudzy, ze pod ati.

 

pozdr

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

hm, mnie tylko jedno ciekawi. Skoro tyle gier jest robionych z optymalizacjami, to moze w tym jest wlasnie rzecz? Przeciez gdyby gry nie byly optymalizowane, to mielibysmy cos w stylu doom3 alpha. Tam brak optymalizacji. Natomiast, czy wybierzemy ATI, czy NVIDIE za taka kase, to i te gry z optymalizacjami i bez beda chodzic plynnie w max detalach. Nie rozumiem problemu. A jak stac Cie na taka karte, to bedzie Cie stac na nowa za rok. Czasami mam wrazenie, ze klocicie sie co jest lepsze tylko dlatego, ze chcecie obronic swoj zakup i swoje wydane pieniadze. Kazdy bedzie bronil swojego. Ponadto mi tam optymalizacje pod nv nie przeszkadzaja. Jesli zrobia optymalizacje pod ATi, tez jest ok, przynajmniej posiadacze tych kart beda mogli sie bawic "plynniej". Natomiast, jesli gra bylaby bez optymalizacji, to i NV i ATi dzialaloby tak samo. Nie rozumiem wiec sporu. Jedni maja szczescie, ze ich ulubiona gra jest pod nv pisana, a drudzy, ze pod ati.

 

pozdr

Optymalizacje sie robi w kodzie gry żeby dana gra chodziła jak najlepiej na w miare jak najsłabszym konfigu.Nikt nie robi optymalizacji pod karty graficzne chyba ze sie mu zapłaci za to .Dzisiaj to Ati ma bardziej przyszłosciowe grafy bo nie trzeba sie bac ze w grze XXX bez optymalizacji pod naszego beznadziejnego FX nie będziemy mieli połowy detali bo nasz cudowny FX nie potrafi tego wyświetlić normalnie bez spadku wydajności.Ja przy kupnie grafy rozważam to na ile ona starczy bo ja zazwyczaj zmieniam grafe co rok(jeśli mam $) ale moja stara grafa zawsze wędruje do mojego brata więc tam siedzi jeszcze z rok.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Czasami mam wrazenie, ze klocicie sie co jest lepsze tylko dlatego, ze chcecie obronic swoj zakup i swoje wydane pieniadze. Kazdy bedzie bronil swojego. 

pozdr

Guzik prawda.

Zanim kupie kartę graficzną to

-czytam testy

-czytam fora

-jak mogę to sprawdzamu u kumpli jak śmiga ten czy tamten model.

i dopiero decyduje sie na tą i na tamtą kartę.

Wiec nie kupuje kota w worku a później nie bronie mojego zakupu.

Tylko stwierdzam fakty,

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Dodaj odpowiedź do tematu...

×   Wklejono zawartość z formatowaniem.   Przywróć formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

Ładowanie


×
×
  • Dodaj nową pozycję...