-
Postów
2342 -
Dołączył
-
Ostatnia wizyta
Treść opublikowana przez Sulaco
-
RC1 === New in this build === * Impostor rendering uses distance based LOD. * Final parallax occlusion mapping feature test. Uses tiled terrain and many moving lights. * Physics test load tuned. * Cloth feature test load increased. Performance mode score, 12x10, no AA/AF. 169.25 WHQL Custom mode score, 1680x1050, no AA/AF. 169.25 WHQL. moze bedzie na koniec marca. moze
-
prosze ;) wylaczenie AI zdaje sie, ze wylacza CF, a to, ze jest to X2 niczego nie zmienia - to nadal jest CF
-
wylacz CF i sprawdz. SLI nie dziala bez "ingerencji", tak wiec tym bardziej watpie, aby CF dzialalo
-
symulacja, tzn podkrecony GTS 512 do przewidywanych taktow GTX ;)
-
1 czyli wylaczony, dokladnie o to samo chcialem zapytac ;) SLI dziala, a fsaa jakos wymusic nie moge w 1920x1200, a przeciez nie bede gral w 1680x1050 :/
-
gdzie nie dziala? w AC? bo normalnie dziala i nawet "sygnalizuje" kiedy gierka jest w dx9 lub dx10 - w dx10 mamy czarne tlo, w dx9 przezroczyste ;)
-
w ciagu paru miesiecy amd/ati zaprezentuje nowa wersje 3870X2, z mostkiem PLX wspierajacym PCIe 2.0, mozliwe, ze z krotszym PCB oraz pamieciami DDR4, no i oczywsice z nowym rdzeniem rv670 rev. A12. ciekawe jak to wszystko wplynie na wydajnosc/stabilnosc . http://www.fudzilla.com/index.php?option=c...80&Itemid=1
-
i wszystko jase ;) compare w 3dm06, nie ma na dzien dzisiejszy zadnego sensu, oby 3dmV cos w tej kwestii zmienil
-
dlaczego sadzisz, ze fake? btw: 88ultra wyciaga gdzies ok 8000 w tej rozd.
-
to nie dotyczy wszytkich modeli BZ tylko "wybranych". wersje z ESA maja oznaczenia w modelu np. BZ ESA 1100, na pudle, oraz posiadaja kabelek USB no i sa drozsze ;) imho marketing, bo niby jak to sprawdzic?
-
i nie zadziala. ztcw ograniczeniem nie sa tutaj stery, ale sam sys operacyjny i jego warstwa odpwiedzialna, za tworzenie ramek - win xp ma ograniczenia do 3 generowanych klatek max, w vista jest zdaje sie 8. wczesniejsze odmiany quad, a wlasciwie jedna na serii gf7, renderowala klatki w trybie SFR - czyli dzielona byla jedna klatka pomiedzy cztery uklady (rownomiernie), wtedy sys pracowal na jednej klatce, no ale tez dzialalo to bardzo marnie. teraz, glownym trybem jest tryb AFR, czyli sys musi przygotowac min 3(tri) lub 4(quad) klatki, po jednej dla kazdego GPU, i win xp tutaj wymieka. dotyczy to obu producentow - nv i ati, czyli tri i quad z AFR tylko pod vista
-
lezy to na magazynach to i cena spada, to raz, a dwa, pojawil sie 9600gt, ktory w SLI jest tanszy, pewniejszy i wydajniejszy. ot cala filozofia
-
chodzilo o przyklad wykorzystnia GPU, a fizyka i CUDA? mysle, ze dynamika molekularna jest dosc "fizyczna", przynajmniej tak mi sie wydaje. EOT
-
przeciez napisalem wyraznie, czym byl PPU ageia - jednostka wektorowa z kontorlerem pamieci, w uproszeniu. PPU powstal kiedy nikt nie myslal o podobnych jednostkach w GPU, kiedy takie sie pojawily brniecie w osobny uklad zupelnie stracilo sens. wczytaj sie troche w kwestie obliczen na poziomie obecnych GPU (np. CUDA, Gelato itp) bo widze, ze zatrzymales sie chyba na poprzedniej ich generacji.
-
bzdury panie piszecie. PPU ageia to byla zwykla programowalna jednostka wektorowa. nic nie stoi na przeszkodzie, aby podobe obliczneia robily obecene GPU swoimi zunfikowanymi jednostkami -> hint technologia CUDA nv niesamoita moc, cale ok.50GFlop, obecnie GPU maja moc obliczeniowa 10x wieksza to po prostu stracilo sens przy obecnej mocy i mozliwosciach GPU. lepiej skupic sie na SDK i wpasc pod skrzydla gigianta, niz probowac z nim walczyc.
-
a gdzie dokladnie? zasada dzialania z poziomu systemu jest dla X2 identyczna jak dla kart w CF, a jezeli faktycznie sa roznice, to tym bardziej X2 to crap - nie dosc, ze trzeba czekac na stery CF, to jeszcze na CF by X2.
-
chcieli zarobic na hardware, ale im nie wyszlo ;) ok. ale z drugiej strony nic na to nie poradze, ze wiekszosci ludzi PhysX kojarzy sie tylko z PPU, a nie porzadnym SDK ;) ale przyznac tez trzeba, ze politka/marketing Ageia mialo na to wplyw
-
nie chodzi o sprzet, a o SDK optymalizowany pod sprzet np. http://ageia.vnewscenter.com/press.jsp?id=1141898679393
-
no wlasnie amd/ati. na dzien dzisiejszy w tej kwestii w ogole sie nie licza. swoja technologie juz maja, problem tylko, ze nie maja SDK, a bez tego ich technologia jest g warta. intel i nv posiadaja solidne SDK - Havok i PhysX, ogolnie wykorzystywane, do tego PhysX siedzi w nowych konsolach, ta sa mocne podstawy, aby zajac sie hardware. amd/ati nie ma nic. do tego jakos nawet im sie nie spieszy, aby cos w tej kwestii zmienic, jezeli w ogole mozna przyjac, ze sa tym nadal zainteresowani.
-
SDK PhysX jest za darmo i widac, ze developerzy bardzo chetnie z niego korzystaja. jezeli intel ze swoim Havok zrobi cos podobnego, to mysle, ze mozemy byc pewni dwoch standardow - Havok z hardware wsparciem przez procki intela, i PhysX z hardware wsparciem, przez GPU nv. mi to pasuje ;) no chyba, ze nv zacznie kasowac za SDK. ;) a, ktory standard faktycznie wygra, zalezy juz od m$.
-
tylko, nie wiem czy zauwazyles, ale to glowny "obronca" X2 - maxymili, przytacza w temacie nv, a jak dostaje konkretna odpwiedz, to zaraz sie "obraza" i od fanboyow wyjezdza. wiekszosc pisze o problemach X2 i przypadlosci jego dotyczacych.
-
:fun: na jednym "specjalistycznym" forum, przemknelo mi info, dlaczego X2 ma takie spadki fps i ogolnie maly min fps :) no wiec, jest sugestia, ze te spadki wynikaja z faktu zastosowania nowej technologii oszczedzania energii, gdzie podczas grania, jezeli stoimy w miejscu i nic nie robimy, karta zmniejsza wydajnosc (taktowanie, V) i stad wynikaja te spadki FPS; jezeli ruszymy dalej, FPS idzie do gory :lol2: widzicie jakie to proste :D to nie wina sterow, gier itd, itp, to genialna nowa technologia ;) btw: ta technologia nazywa sie ponoc PowerPlay ;)
-
:blink: chyba tematy pomyliles.
-
a jak to sie dzieje, ze samochod mi pali wiecej niz producent podaje? juz odpowiadam - metodologia pomiaru. i teraz pytanie komu wierzyc - producentowi, czy rachunkowi ze stacji? a moze na stacji mnie oszukuja? ;)
-
i 2x drozsza, a zapewne koledze testu z egielda i podsumowania do przeczytania nie dales? ;)