-
Postów
2342 -
Dołączył
-
Ostatnia wizyta
Treść opublikowana przez Sulaco
-
to moze byc "pelne" 32potoki - ROP,TMU,PS + tranzystory na geometry shader + tranzystory na nowe "bajerki" + rozbudowany kontroler pamieci + moze jakis cache. wydajnosc oprocz wiekszej ilosci potokow, mogli tez podniesc przez zwiekszenie taktowania/optymalizacje jednostek PS/VS nie wiedze problemu, aby z 300 zrobic 700, jezeli te 700 to faktycznie prawda.
-
jak to sie mowi - za piekne, aby bylo prawdziwe. jestem realista ;)
-
no mysle, ze sporo. jak zachecic do kupowania nowego systemu jak nie przez nowy hardware i soft na niego osobiscie stawiam na ta wersje: "G80 has 32 pixel and 16 vertex and geometry shader processors"
-
tylko taki drobny szczegolik - nowy sytem operacyjny, a za nim M$ z duza iloscia $, aby go promowac.
-
zasilacz to pikus - tg900-u95 ;) gorzej, ze nawet jak zdobede dwie karty to watpie, aby plyty z nf680 pojawily sie w tym samym czasie na rynku - na 975 nie mam co marzyc, ze to odpale w SLI, a na nf4/5 to znowu z c2d nie poszaleje. no mam cicha nadzieje, ze premiery rynkowe obu produktow beda w tym samym czasie.
-
powaznie cos takiego napisalem :blink: ? no jezeli tak to oczywiscie browara wysle...ale po premierze ;)
-
moze i na pcl takie bajki przechodza, ale tutaj na to bym nie liczyl :P
-
pomysl sam w sobie ciekawy, ale link kto wie, byc moze calkiem raznie by mu to szlo ;)
-
no a czym dla ciebie byly kiedys procesor i koprocesor? czym jest DSP? dlaczego karta dzwiekowa nie posiada tylko DAC, a reszty nie przetwarza CPU?
-
za slaby proc do robienia domyslnych benchmarkow a tak ogolnie to wyniki w normie
-
no wiesz. nikt nie kupi karty z PPU drozszej od posiadanej karty z GPU :D zapewne w renderowaniu grafiki 3D przez CPU na poziomie wydajnosci i jakosci najslabszego dostepnego GPU tez nie widzisz? sa uklady specjalizowane, ktore operuja lepiej na np danych FP, inne znowu na INT, inne znowu lubia operowac na duzych iloscich danych, inne na malych, inne na wektorach, inne na skalarach. tak trudno to pojac? a gdzie ja napisalem, ze sobie nie da rady? sprawdz specyfikacje X360, zobacz ile faktycznie jest tam procy i jakich, potem porownaj to do jednego CPU (nie wazne ile rdzeniowego) w PC. to musi sobie radzic z duza iloscia roznych danych. jeden CPU nie koniecznie no wlasnie o to chodzi . inna architektura. specjalizowana. zaczynasz rozumiec?
-
tylko, ze to nie jest "prawdziwa" fizyka. taki "krokodyl" ze swoim miotaczem, to wyglada fajnie, ale to nie jest jescze to. ten plomien powinien byc bardziej plynny, to powinno sie rozlewac, oblewac powierzchnie, a nie jakos dziwnie przechodzic przez np.budynki, lub czasami wrecz wygladac jak jakas oblesna bitmapa wybuchy - wygladaja fajnie, ale brakuje im tej realistycznosci, gdzie latajace odlamki? fala uderzeniowa? wraki - znikaja jak przez nie przejedziemy, wiekszosc obiektow znika.
-
no w sensie, ze te same efekty na CPU dzialaja o wiele wolniej ;)
-
no Cell na pewno ;) zauwaz tez, ze ich liczba wynosi wiecej niz 2 oraz, ze "troche" odbiegaja od specyfikacji x86 :) chyba nigdy sie nie dowiemy, jak te "osmieszajace" efekty dzialalyby w wersji na CPU ;) na tej stronie link znajdziesz tez pare filmikow, w tym tez z gier obecnych na rynku. jak na "prostote" efektow tam pokazanych, nie dane nam bylo chyba zobaczyc ich jescze w wersji na CPU. ale co w tym zlego, ze AGEIA promuje swoje rozwiazanie? widac, ze HAVOK jakos nie moze sie przebic. AGEIA ma swoj sprzet, daja za darmo sdk, efekty widac, wiec w czym problem? ze drogie? voodoo te nie bylo tanie na starcie. tez bylo malo tytulow z akceleracja 3D. skad wiesz ile ten gadzet bedzie kosztowal "za niedlugo" ? jezeli do AGEIA przylozy reke MS to imho PhysX stanie sie standardem. programowanie na wielordzeniowce nie jest zapewne latwe (do teraz nawet najwieksi developerzy maja problemy z samym "tylko" poprawnym dzialaniem na multicore, wymuszajac albo dzialanie na jednym rdzeniu, albo obciazajac drugi w stopniu minimalnym, a Wy oczekujecie, ze od jutra jeszcze wepchna tam fizyke :D ) , na pewno nie latwiejsze niz podlaczenie sie do istniejacego rozwiaznia - np.HAVOK, tyle, ze isniejace rozwiazania kosztuja, a jak juz pisalem sdk do swoich kart AGEIA rozdaje za darmo.
-
jezeli mozna i moc CPU jest do tego wystarczajaca, to ja sie pytam dlaczego tego nie ma? pokaz mi jeden tytul z fizyka materialow(tekstylia) i plynow tak jak widzimy to w demie CellFactor, a robione na CPU z normalnym framerate? jest tyle tytulow wykorzystujacych HAVOK, to ja sie pytam gdzie jest ta prawdziwa fizyka? podejrzewam, ze bedzie w Alan Wake, ale zobaczymy ja dopiero na min. 4 rdzeniach. i jezeli tak bedzie to moje pytanie brzmi: ilu kupi 4 rdzeniowego proca, a ilu karte PPU, i dla kogo i pod co warto pisac dany tytul? dla garstki grajacych posiadaczy 4rdzeniowcow, czy dla tysiecy posiadaczy PPU? dla mnie odpowiedz jest jasna.
-
sam jestes frajer :P moze, ale nie liczy, a jak liczy to wychodzi mu 5fps. PPU jest specjalizowanym ukladem wlasnie do obliczen fizyki, tak jak GPU do renderowania grafy. z Waszym tokiem myslenia to do dzis nie byloby wsparcia dla 3D ze stony hardware, bo wszystko moglby liczyc CPU. dla mnie to jest proste. developerzy z braku czasu nie pieszcza sie w optymalizacje, maja gotowe sdk, biblioteki i wybieraja gotowca, tym bardziej jak jest za darmo. AGEIA oferuje sdk za darmo, HAVOK kosztuje kupe kasy. wszystko wskazuje, ze AGEIA tez bedzie miala wsparcie ze strony MS. co do 4-5gier na PC i kilka x tyle na konsole - wybieram PC bo wlasnie te 4-5 tytulow mnie interesuje. proste.
-
laing DDC 1T Alphacool NexXxoS XP + CLP black water 122 2x fander rez 5 1/4'' efekt proc @1,55V bios, czyli jakies 1,6V real
-
a co ma jedno z drugim wspolnego?
-
do tego medal za kazda misje tez nielatwo zdobyc.
-
tudziez instrukcje przeczytalo ;)
-
ja tam nie chce krakac, ale to juz nie ATI decyduje czy wyda nowy uklad, czy nie.
-
tylko, ze te same [ciach!]ly bez PPU wcale sie nie wyswietla, albo wyswietla sie z 0,1fps ;)
-
Ageia RealityMark
-
fakt. oby jak najdluzej ;)