-
Postów
2342 -
Dołączył
-
Ostatnia wizyta
Treść opublikowana przez Sulaco
-
widocznie moze to tez byc kwestia tak softu jak i monitora...u mnie w d3 bez vsync na sony hs74ps cienko to wyglada mimo, ze sam d3 ma ograniczenie do 60fps...
-
a jak czesto masz >60fps na r8500? nie masz problemu bo u Ciebie on nie powstaje...odpal jakas gierke w ktorej wycisniesz >60fps zobaczysz w czym problem...
-
xt bedzie na pewno w wiekszosci przypadkow troche szybszy, ale z drugiej strony nie oferuje niczego nowego w 3d, czego nie mozna uzyskac na nv40...w druga stone juz tak nie jest...xt jest wieksza grzalka, a ultra ma glosniejsze chlodzenie....tak wiec co kto lubi....
-
dokladnie jest tak jak piszesz - wylacznie Vsync powoduje rwanie obrazu co przy 60-75Hz i niskim czasie reakcji paneli jest b.upierdliwe...osobiscie vsync mam caly czas wlaczony, a wylaczam go tylko na czas jakis testow...
-
http://www.nvnews.net/vbulletin/showthread.php?t=41763 podniesienie napiecia na gpu to nie tylko "przywalenie" samemu gpu, ale tez ukladowi zasialajacemu na samej karcie, z jakiegos powodu ultra ma prawie dwa razy mocniejszy uklad zasilajacy niz reszta 6800...
-
czegos nie rozumiem...co ma wspolnego podniesienie napiecia na porcie agp z hdd?...zreszta chodzi chyba o podniesienie napiecia na gpu z poziomu biosu karty graf, wiec jak to tez sie ma do agp to juz w ogole nie wiem...
-
a nie sadzisz, ze moze to byc problem samej plyty? z neo mialem podobnie zanim nie pojawil sie konkretny bios, dokladnie podobne objawy - niskie timingi, marzenia o 200MHz, brak stabilnosci, po upadte biosu efekt widoczny w podpisie @2,75V...mozliwe, ze na s939 w dualu te pamiatki nie chca brykac, ale osobiscie b. w to watpie.... akurat te geile sa na samsungach TCCD nie na Hynix'ach i jesli chodzi o jakiekolwiek porownanie, to moze porownujmy do zblizonych pamiatek, czyli do dwustronnych 512MB. To, ze mozna wycisnac wiecej na jednostronnych 256 to jaw wiem, ale jesli potrzebujesz min.2x512MB szybkich pamieci bez katowania ich napieciami >3V, to co proponujesz oprocz czegos wlasnie na takich samsungach?
-
mozesz rozwinac ?
-
to nie jest 30%... http://www.behardware.com/articles/536/page1.html ogromne koszty to pojecie wzgledne...jesli chesz miec obecnie najmocniejszy sprzet i stac cie na kupno karty za ponad 500$ to co za problem kupic dwie karty za 800$? zasilacz za 200$ to przy tym pestka...pierwsza liga zawsze byla i bedzie kosztowna...takie zycie... zalezy kto i czym robi testy...np na 3dcenter najmocniejszy obecnie x850xt pe jest slabszy lub niewiele wyprzedza gf6800u... http://www.3dcenter.org/artikel/ati_radeon_x850 tak wiec opierajac sie tylko na tym tescie oraz dorzucajac do tego sli, mozna dojsc do wniosku, ze to wlasnie ati ma problem...i to b.powazny problem...faktem jest, ze 3dcenter to chyba jedyny serwis na ktorym widzialem tak powalajaca roznice, ale tez faktem jest, ze to jednak nv na dzien dzisiejszy oferuje rozwiazanie dajace najwiekszy framerate w grach...
-
nie koniecznie...czy stanialy karty po premierze x850? stare modele zaczna znikac z rynku, ale ich cena imho nie ulegnie drastycznej zmianie... imho nvidia nie ma potrzeby wydawania teraz czegos nowego-mocniejszego - maja sli to im wystarczy na rok, moga sie skupic na pci-e i na cenach....imho to teraz wlasnie nv dyktuje warunki, a ati musi sie sprezac... a ze sli jest drogie - jest najwydajniesze obecnie i dlugo bedzie, a w tym przypadku cena sie nie liczy....
-
ku przestrodze... http://www.nvnews.net/vbulletin/showthread...63&page=1&pp=15 nie wiadomo na 100% czy faktycznie to wina podniesienia napiecia na rdzeniu, ale imho nie mozna tego wykluczyc - z jakiegos powodu dano nizsze napiecie przy braku dodatkowego zasilania ...
-
cieplo, ale niegoraco....metoda o ktorej piszesz to super-sampling, gdzie aa jest uzyskiwany wlasnie przez skalowania obrazu, i z tego co wiem tylko w kartach nv jest dostepny ten tryb bezposrednio z poziomu sterow - choc nie do konca bo to co tam jest to jest miks super i multi samplingu.najczesciej wykorzystywany multi-sampling w uproszczeniu opieara sie na wychwyceniu roznic pomiedzy poszczegolnymi klatkami (nie dotyczy to tekstur, porownywane sa tylo punkty krawedzi) i na ich podstawie tworzony jest obraz wynikowy, a wszystkie operacje sa robione w nominalnej rozdz. obie metody maja swoje wady i zalety - jakosciowo najlepiej wyglada super-sampling, ale zabija sprzet, a kompromisem pomiedzy jakoscia i szybkoscia jest wlasnie multi-sampling. kazda firma ma inne algorytmy liczenia tak wiec efekt jest rozny.
-
Jaka teraz karta jest najszybsza?
Sulaco odpowiedział(a) na CeglA temat w 2002: Sprzęt, podkręcanie, modyfikacje
to nie jest problem przepustowosci magistrali, problem imho lezy w samym hl2 i/lub sterach - skad anand wzial 69.33 to ja nie wiem :P, to ze hl2 ma problemy z plynnoscia to nie nowina, pojawil sie juz odpowiedni patch, stery w sli tez nie sa dopracowane, konfig na jakim anand testowal tez jest sredni - juz chyba wolniej tych pamiatek to chyba nie dalo sie ustawic, tak wiec imho nie ma o czym mowic... -
a to ciekawe...bo wg xbit powinienes wywalic swojego p4 na smietnik, bo w hl2 to on sie zdecydowanie nie sprawdza...i co zrobisz to ? nie..bo na obu procach mozesz spokojnie pograc, a ze p4 daje Ci cos czego nie masz w np.a64, to wlasnie dlatego dokonales takiego, a nie innego wyboru...z ati i nv jest podobnie....
-
hmmm...dla mnie to wszystko odnosnie wersji UE dziwnie troche brzmi....w samych sterach nie ma infa odnosnie takiej wersji - brak ID, nie jestem tez pewien tego nap.1.5V...osobiscie korzystam z oryginalnego biosu dla 6800UE by eVGA, ktora swego czasu mozna bylo dostac,, teraz praktycznie jest niemozliwym dostanie wersji U jak i UE, a o wersji UE mysle, ze w ogole mozna zapomniec gdy za rogiem czai sie nv48...
-
osobosicie jakbym mial brac cos teraz, to jednak poczeklbym na jakas plytke z 2xpci-e - mysle, ze max 2-3tyg...na poczatek wpakowalbym w nia 6800gt, a za max pol roku, nastepnego gt... :twisted:
-
wasc nie sciemniaj tylko pisz/rysuj jak to zrobiles, ze ten spark7 tam przypasowal :D bo silencer moze jest fajny, ale nie na 6800ue :(
-
imho nadal jest to ponizej poziomu grywalnosci - min framerate jest znacznie ponizej sredniego, ale ok nie wazne. ogolnie sie nie zrozumielismy. ja uwazam, ze jesli w wiekszosci testow karta jest przynajmniej dwa razy szybsza od swojej poprzedniczki, to test w ktorym wyniki nagle robia sie porownywalne jest dla mnie malo miarodajny i praktycznie nie do przyjecia. czy jesli w jakims tescie w 1600x1200 z af8x i aa4x x800xtpe mialby tyle samo klatek co 9800xt stweirdzilbys, ze jest to mozliwe? imho to nie jest mozliwe, a jesli tak jest to nie swiadczy to dobrze o silniku lub sterach...
-
Co wybrac, dylemat !
Sulaco odpowiedział(a) na beriam temat w 2002: Sprzęt, podkręcanie, modyfikacje
a przepraszam w co chcesz wlozyc tego gainwarda? bo chyba nie w tego abita? -
lub nawet mniej w przypadku lomac'a....na obu kartach chodzi porownywalnie...porownywalnie wolno... ok. ja nawet nie widze zadnych dobrodziejstw ze strony ati. no ale co kto lubi i czego oczekuje to juz jego sprawa... a robiles testy na r9800 lub fx5950? wlasnie chodzi o to, ze wyniki sa porwnywalne dla tych kart i dla 6800gt. to nie jest normalne, a juz na pewno to nie jest ukazanie jakis mozliwosci. to jest skopany za przeproszeniem silnik lub bug w sterach, to nie ma nic wspolnego z karta jako sprzetem. http://graphics.tomshardware.com/graphic/2..._charts-12.html dla porownania CoD http://graphics.tomshardware.com/graphic/2..._charts-06.html czy o tym tez napiszesz, ze jest to pokaz mozliwosci sprzetu? to wszystko rozbija sie o stery i silnik gier. dla mnie obie karty maja podobna wydajnosc z lekka i sporadyczna przewaga r420. i to tyle jezeli chodzi o ati, reszta nalezy do nv... oczywiscie ze ma, ale dla mnie sa one niewystarczajace. oprocz framerate oczekuje tez czegos nowego i niestety, ale ati mi tego nie daje...na pewno nie dzisiaj...
-
w tych prostych grach wykrecasz 100-200fps, a chyba nie o to juz chodzi... sorki, ale RD2 jest najgorszym przykladem...jesli widze, ze 6800gt ma framerate na poziome fx5950u i 9800xt (!), to wybacz, ale wyniki w tej gierce nie sa dla mnie zadnym argumentem....przemilcze tez kwestie, ze Toca jest jedna z gierek znajdujacych sie na liscie softu, ktory "odpowiednio" rozpoznaja sterowniki...ale to juz inna bajka...kwestia optymalizacji w dobrym tego slowa znaczeniu i byc moze bug w samym silniku. wszystko ok jesli r420 jest szybsze, tak wlasnie powninno byc....schody zaczynaja sie gdy tak nie jest...a niestety tak bywa... czytales ten art.? http://www.3dcenter.org/artikel/nv40_pipel...ine/index_e.php zeby byla jasnosc - ja do 4xx nic nie mam - chce ktos miec ati, prosze bardzo, ale ja osobiscie od momentu pojawienia sie nv40 do chwili gdy pojawi sie r5xx na ati nie spojrze., chocby nie wiem co mieli czarowac...wszystko idzie do przodu, a dla mnie ati stoi w miejscu i przebiera nogami jak dziecko z pelnym pecherzem...od dobrych dwoch lat...takie jest moje zdanie...
-
nie wytrzymam zaraz....przestancie mylic SM2.0 z PS2.0! SM2.0 (ShaderModel) to jest ogolna nazwa pixel (PS) i vertex (VS) shaderow. to ze da sie na na PS2.0 zrobic to samo co naVS3.0 to sie zgadza - straci sie "tylko" na wydajnosci, ale nigdy nie zrobisz VS2.0 tego co mozna zrobic VS3.0! no chyba, ze programowo...1 fps... a o czym dokaldnie piszesz? bo chyba nie o "wydajnosci" przy MHz? bo tu ati b.blado wypada...przy takim taktowaniu i technologii, itd, r420 powinien zmiatac z powierzchni...a tak nie jest...r420 to dla mnie jak p4 w procach - czysta sila MHz, bez finezji i polotu, z dewiza - nic na sile, wez wiekszy mlotek... a co do tytulow - Pacific Fighters, b.dobry przyklad co daje wlasnie VertexShader 3.0...
-
70.41, ale z tego co widze to 66.93 tez daja podobny dopal...
-
ja nie traktuje HDR jako "przelomowego" - jest po prostu dodatkiem podnoszacym "realizm" wyswietlanego obrazu, a ze stoi za tym ILM ze swoim standardem to mysle, ze ma on jakas przyszlosc. OpenGL, OpenAL tez nie sa standardami wypromowanymi przez M$, a to co sie znajduje w systemie nie mozna nazwac pelna ich implementacja, sa to tylko "klienci" odowlujacy sie do rozwiazan (rozszerzen) zewnetrznych - np. w sterownikach...
-
a kto powiedzial, ze HDR musi byc standardem dx'a? wystarczy, ze ma juz wlasny standard - OpenEXR...a przyznasz, ze latwiej i taniej podczepic sie pod gotowy standard niz na sile promowac swoj...