kojak_ct Opublikowano 10 Stycznia 2006 Zgłoś Opublikowano 10 Stycznia 2006 Dokładnie. Przecież pisze jak wół Crossfire i SLI. Nie widzicie, że: ATi RADEON X1900 XT 512MB CrossFire (625MHz VPU / 1450MHz GDDR-3) (not XTX) (AMD A64 FX-57 2.8GHz) 13,501 3DMarks for $1098 (£622.01) NVIDIA GeForce GTX 512MB SLi (550MHz GPU / 1200MHz GDDR-3) (AMD A64 FX-57 2.8GHz) 12,200 3DMarks for $1,439.61 (£815.58)? ATi RADEON X1900 XTX 512MB (650MHz VPU / 1550MHz GDDR-3) (AMD A64 FX-57 2.8GHz) 11,149 3DMarks for $649 (£367.67) Chyba za dużo wrażeń z wyników. :lol2: Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Cobra Opublikowano 10 Stycznia 2006 Zgłoś Opublikowano 10 Stycznia 2006 Z zestawienia kart ,ktore wkleil Nierealny zastanawiaja mnie 2 rzeczy. Pierwsza z nich jest znaczaca roznica w wydajnosci kart X1900 XTX i 7900 wynoszaca prawie 2000 markow na korzysc NV ,druga jest sama skalowalnosc X1900 (roznica w taktowaniach 25 MHz GPU i 100 MHz pamieci) wyglada na to ze ta nie wielka roznica powoduje roznice ponad 10% w wydajnosci (wyjasnieniem moze byc zastosowanie mniejszej ilosci PS w wersji XT , czego nie chcemy ;) ). Ciekawe jaki bedzie wynik na podkreconej karcie i jaki jest sens wprowadzania crossfire ... Ktos chyba robi sobie zarty :) Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Sulaco Opublikowano 10 Stycznia 2006 Zgłoś Opublikowano 10 Stycznia 2006 odnosnie G71. jakos bardzo watpie, ze nagle nv udalo sie zrobic cos czego ati nie moglo - chodzi o upchanie 32 potokow w 90nm. biorac pod uwage, ze SLI jest w sumie dopracowane, i ze sa karty posiadajace dwa uklady, moze nv po prostu zrobilo takiego swojego x2? upchneli wszystko na jedna plytke, polaczenie SLI zaszyli w krzemie, uklady 16 potokowe taktowane 700MHz to nie problem. boom. mamy G71 - 2x 7800 16 potokow, 90nm, 700/750MHz...osobiscie nie widze zadnego problemu :) Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Domell Opublikowano 10 Stycznia 2006 Zgłoś Opublikowano 10 Stycznia 2006 odnosnie G71. jakos bardzo watpie, ze nagle nv udalo sie zrobic cos czego ati nie moglo - chodzi o upchanie 32 potokow w 90nm. biorac pod uwage, ze SLI jest w sumie dopracowane, i ze sa karty posiadajace dwa uklady, moze nv po prostu zrobilo takiego swojego x2? upchneli wszystko na jedna plytke, polaczenie SLI zaszyli w krzemie, uklady 16 potokowe taktowane 700MHz to nie problem. boom. mamy G71 - 2x 7800 16 potokow, 90nm, 700/750MHz...osobiscie nie widze zadnego problemu :) Cóż...Mnie się wydaje że posiadanie przez G71 32 potoków jest bardzo możliwe....Układ o takiej konstrukcji musi pewnie zawierać około 370-380 mln tranzystorów czyli podobnie(lub nieznacznie więcej) jak r580...Różnica polega jedynie na tym że ATI poszło w nieco inną stronę-shadery....Mówiąc krótko u ATI te dodatkowe(wzgledem r520) tranzystory zajmują jednostki PS, których jest aż 3x więcej niz w r520 a u NV te dodatkowe 8 potoków (8 jednostek PS oraz 8 TMU przy niezmienionej liczbie ROP`ów).... Pozatym gdziś kiedyś czytałem że w r520 bardzo dużo tranzystorów zajmuje kontroler pamięci, który swoją droga jest wyraznie lepszy od tego zawartego w G70 dlatego też moim zdaniem gdyby ATI stworzyła produkt 32 potokowy to musiałby on miec conajmniej 400mln tranzystorów skoro 16 potokowy r520 ma ich 321 mln... Dodatkowo należy wspomnieć to że NV odwaliło kawał dobrej roboty upychając 302 mln tranzystorów w procesie 110nm oraz osiągając przy tym jeszcze 550-600mhz (GF7800GTX).. Podsumowując, sądze że G71 posiada te 32 potoki ponieważ w przeciwnym przypadku wypuszczanie układu 24 potokowego-nawet przy taktach rzedu 750mhz mijałoby się z celem..... Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Sulaco Opublikowano 10 Stycznia 2006 Zgłoś Opublikowano 10 Stycznia 2006 Cóż...Mnie się wydaje że posiadanie przez G71 32 potoków jest bardzo możliwe....mimo wszystko latwiej jednak zapanowac nad technologia w 110nm niz 90nm. ati mimo dopracownaej technologii (od ponad 3lat?) nie udalo sie upchnac 32potokow. mozliwe, ze nawet nigdy nie probowali, kierujac sie tylk iloscia MHz. mozliwe, ze nv sie uda, ale jak na razie jest to dla mnie szyte baaardzo grubymi nicmi. Podsumowując, sądze że G71 posiada te 32 potoki ponieważ w przeciwnym przypadku wypuszczanie układu 24 potokowego-nawet przy taktach rzedu 750mhz mijałoby się z celem.....oczywiscie. ale moze w przypadku 90nm wystarczylo dolozyc MHz? tak np. do 750? dlaczego sobie utrudniac i wpychac jeszcze dodatkowe 8 potokow, jezeli wydajnosc 24 przy 750MHz bedzie wystarczajaca? a moze jeszcze latwiej bedzie upchnac 16 potokow i dac dwa uklady, zostawiajac sobie furtke na przyszlsc na np 2x24potoki? imho za duzy skok technologiczno/wydajnosciowy jest z 24@110nm 550MHz, na 32@90nm 700MHz, aby bylo to tak proste i oczywiste. to sie nv nie oplaca ;) Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Domell Opublikowano 10 Stycznia 2006 Zgłoś Opublikowano 10 Stycznia 2006 Sulaco------>być może masz rację....Patrząc jednak dokładnie na tę tabelkę...... http://www.pcpop.com/doc/App/125255/000219571.html ......widac tam przypodanych specyfikacjach liczbę 24 przy G71????Zastanawia mnie właśnie co oznacza ta liczba?? Być może G71 posiada 32 jednostki PS i 16 ROP`ów i 24TMU?????? Jeśli tak przedstawiałaby się sytuacja to być moze G71 wcale nie jest tak bardzo skomplikowanym układem w porównaniu do G70 gdzyż dodano jedynie 8 jednostek PS??Być moze to w zupełności wystarcza do tego by wypuścić układ szybszy od r580?? Co do technologii to zauważ że ATI decydując się na produkcję r520 w technologii 90nm zdecydowało się na nie lada wyczyn gdyz postanowiło stworzyć całkiem nowy układ posiadający dwukrotnie więcej tranzystorów o swojego poprzednika w zupełnie nowej nie sprawdzonej jeszcze przy produkcji układów graficznych technologii....Myślę że NV nie sprawi to aż tyle problemu ponieważ G71 jest tylko rozwinięciem G70-co więcej jest to G70 w technologii 90nm z dodatkowymi 8 jednostaki PS (w przypadku posiadania 24 TMU)....Dlatego uważam że stworzenie takiego układu przez NV jest bardzo możliwe. Pozdro Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Sulaco Opublikowano 10 Stycznia 2006 Zgłoś Opublikowano 10 Stycznia 2006 ......widac tam przypodanych specyfikacjach liczbę 24 przy G71????Zastanawia mnie właśnie co oznacza ta liczba??w/g krzaczkow-robaczkow to sa TMU...no wlasnie...w/g schematu blokowego G70 ma 24TMU - w kazdym potoku 1, skad oni nagle wzieli 16? ROP w G70 ogranicza tylko wydajnosc przy nakladaniu jednej tekstury, ale przy nakladaniu dwoch i wiecej, uklad zachowuje sie jak 24potokowy. dziwna ta tabelka..albo dokladaja 8 potokow w kazdym 1 TMU, albo rozbudowuja istniejace, ale to tez nie jest takie proste, bo uklad sklada sie z 6 quadow (6 x 4 potoki pikseli). w sumie tak zle i tak niedobrze :) ale TMU w dobie shaderow juz nie ma takiego duzego znaczenia. Co do technologii to zauważ że ATI decydując się na produkcję r520 w technologii 90nm zdecydowało się na nie lada wyczyntak. i przeplacili to sporym opoznieniem. czy nv jest az tak dobra, ze przechodzi sobie ot tak z technologii na technologie? jakos w to watpie. no ale moze faktycznie...no nic. zobaczymy co wysmaza, ale ja jakos tak sceptycznie nastawiony jestem :) Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Domell Opublikowano 11 Stycznia 2006 Zgłoś Opublikowano 11 Stycznia 2006 (edytowane) w/g krzaczkow-robaczkow to sa TMU...no wlasnie...w/g schematu blokowego G70 ma 24TMU - w kazdym potoku 1, skad oni nagle wzieli 16? ROP w G70 ogranicza tylko wydajnosc przy nakladaniu jednej tekstury, ale przy nakladaniu dwoch i wiecej, uklad zachowuje sie jak 24potokowy. dziwna ta tabelka..albo dokladaja 8 potokow w kazdym 1 TMU, albo rozbudowuja istniejace, ale to tez nie jest takie proste, bo uklad sklada sie z 6 quadow (6 x 4 potoki pikseli). w sumie tak zle i tak niedobrze :) ale TMU w dobie shaderow juz nie ma takiego duzego znaczenia. Wiesz??ja jednak mam nadzieję że G71 posiada owe 32 potoki i taktowane zegarem na poziomie700/750mhz.... Zresztą jeśli informacje w linku który podałem kilka postów wcześniej są prawdziwe to NV MUSIAŁA coś dołożyć/usprawnić w porównaniu do G70 bo wedługo informacji G71 przy taktowaniu około 430 mhz osiąga wydajność GF&800GTX 512 który jak wiadomo ma zegary na poziomie 550mhz....Czyli jak widac NV musiała zastosowac daleko idące usprawnienia ewentualnie poprostu dołożyła te 8 potoków.... tak. i przeplacili to sporym opoznieniem. czy nv jest az tak dobra, ze przechodzi sobie ot tak z technologii na technologie? jakos w to watpie. no ale moze faktycznie...no nic. zobaczymy co wysmaza, ale ja jakos tak sceptycznie nastawiony jestem Tak przepłacili to sporym opóźnieniem jednak jak juz wcześniej wspomniałem być może (a nawet napewno) było ono spowodowane tym, że ATI zdecydowała się stworzyć całkiem nowy i bardzo złożony (w porównaniu do r420) układ w nowej, nie stosowanej jeszcze wtedy przy produkcji układów graficznych oraz niedopracowanej jeszcze technologii....NV z pewnością ma obecnie ułatwione zadanie bowiem teraz technologia 90nm jest juz duzo bardziej opracowana i opanowana dlatego też myślę że mimo wszystko w przypadku NV przejście ze 110nm na 90 nm nie będzie aż tak bolsesne choć fakt że G71 ma mieć premierę dopiero w marcu jest też spowodowany własnie przez zmiane technologii produkcji.... Zresztą pewnie doskonale pamiętasz jak było w przypadku przejścia obu firm z procesu 150nm na 130nm...Wtedy to NV ze swoim nieszczęsnym NV30 jako pierwsza podjęła się tego zadania (podobnie jak ATI z r520)i wszyscy pamiętamy jakie miała problemy z wprowadzeniem wreszcie tego układu do sprzedaży....A ATI dalej produkowało swoje układy w procesie 150 nm (r300 i r350/360) a nowy proces 130nm zastosowało dopiero podczas opracowywania r420, gdy był on już (proces 130nm) opanowany i duzo bardziej dopracowany....... Właśnie dlatego myślę że w przypadku NV przejście na 90nm będzie duzo łatwiejsze..... Pozdro :wink: Edytowane 11 Stycznia 2006 przez Domell Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Xan02 Opublikowano 11 Stycznia 2006 Zgłoś Opublikowano 11 Stycznia 2006 Jestem ciekaw kwesti chlodzenia kary G71. Przejscie z 0.11 mikro na 0.9 niesie za soba spadek wydzielania ciepla, ale w najnowszym 7900? znacznie podniesiono zegar rdzenia na ~700Mhz. Czy wystarczy chlodzenie z GTX 512MB, czy tez zastosuja jeszcze potezniejsze chlodzenie( to chyba ze 3 sloty zajmie, albo wodne bedzie standardem :D ). To samo w pzrypadku Ati, czy ta turbina z X800XT podola wychlodzic X1900XTX?? Co o tym sadzicie :-P Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Sulaco Opublikowano 11 Stycznia 2006 Zgłoś Opublikowano 11 Stycznia 2006 Jestem ciekaw kwesti chlodzenia kary G71. Przejscie z 0.11 mikro na 0.9 niesie za soba spadek wydzielania ciepla, ale w najnowszym 7900? znacznie podniesiono zegar rdzenia na ~700Mhz. Czy wystarczy chlodzenie z GTX 512MB, czy tez zastosuja jeszcze potezniejsze chlodzenie( to chyba ze 3 sloty zajmie, albo wodne bedzie standardem :D ). no jezeli chlodzenie gtx512 daje rade 670MHz 110nm przy 1,6V to nie widze problemu, aby poradzilo sobie z 700MHz 90nm przy <1,4V (watpie aby dali wiecej na rdzen/ie) To samo w pzrypadku Ati, czy ta turbina z X800XT podola wychlodzic X1900XTX??no tutaj to juz imho troszku gorzej. w przypadku x1800xt juz nie jest ciekawie, a z tego co widac x1900xt(x) bedzie jeczcze bardziej pradozerny - 7 mosfetow robi wrazenie, ale na mnie bardziej negatywne niz pozytywne :( ta suszarka to wielka pomylka... Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
draak Opublikowano 11 Stycznia 2006 Zgłoś Opublikowano 11 Stycznia 2006 Xan, turbina to jeśli już, to tylko x850xtpe, x800xt miał ciche 1slotowe chłodzenie. Zgadzam się z Sulaco, że ta suszarka to pomyłka- moim zdaniem ati musi pogodzić się z technologią heat-pipe i większym wentylkiem, ot coś na wzrór chłodzenia gtx512 lub też AC x1/x2. Z drugiej strony- u mnie turbina na x1800xt bez o/c nieczęsto przekraczała 50% obrotów i nie była aż tak uciążliwa. A na 100% to nawet śmigło na 7800gt jest bardzo głośne, a lepiej tych dwóch kart ze sobą nie porównywać. Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
KiKiT Opublikowano 11 Stycznia 2006 Zgłoś Opublikowano 11 Stycznia 2006 (edytowane) Pieknie sie temat nakręca, wspołczesny marketing działa lepiej niż propaganda sowiecka. Garsc fake'ów i mamy odrazu "burze mózgów". Szkoda, że do niczego to nie prowadzi, poczekamy zobaczymy, liczą się tylko fakty...kto jest chętny do zakupu nowego R580(cena chyba kolo 650 $, w poland to kolo 3 paczek) i podzielenia sie wrażeniami z użytkowania? W ferie bedziem sie nudzić. Edytowane 11 Stycznia 2006 przez KiKiT Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
mastermind-pl Opublikowano 11 Stycznia 2006 Zgłoś Opublikowano 11 Stycznia 2006 (edytowane) odnosnie G71. jakos bardzo watpie, ze nagle nv udalo sie zrobic cos czego ati nie moglo - chodzi o upchanie 32 potokow w 90nm. biorac pod uwage, ze SLI jest w sumie dopracowane, i ze sa karty posiadajace dwa uklady, moze nv po prostu zrobilo takiego swojego x2? upchneli wszystko na jedna plytke, polaczenie SLI zaszyli w krzemie, uklady 16 potokowe taktowane 700MHz to nie problem. boom. mamy G71 - 2x 7800 16 potokow, 90nm, 700/750MHz...osobiscie nie widze zadnego problemu :) wysoce prawdopodebne, skoro są cpu dwu rdzeniowe to czemu nie gpu? a potem 2x24, 2x32, masakra. ale myslę że oni poprostu zrobili te 32 potoki, ale tylko ps, tmu ma 24, vertexów nadal 8 (a spodziewałem się nawet 16) no i 16 ropów Xan, turbina to jeśli już, to tylko x850xtpe, x800xt miał ciche 1slotowe chłodzenie. jemu chyba chodziło o X1800XT, zgubił gdzieś jedynke ;) i jeszcze news z tweaka: "Będzie GeForce 7300 dodał: Bryndek » 22:27 Wbrew wszelkim spekulacjom, jakoby NVIDIA miała nie wypuszczać słabszych modeli kart z układem z rodziny GeForce 7XXX dziś pojawiła się informacja o GeForce 7300. Wg źródła, układ oparty na być na nowym chipsecie wyprodukowanym w technologii 90nm. GF 7300 ma pojawić się w kilku wersjach z czego najwolniejszy i najtańszy wspierać będzie 64 bitowe pamięci a wersja najszybsza - 128 bitowe pamięci. Układ posiadał będzie 4 potoki renderujące a jego oficjalna premiera zapowiedziana została na luty, ma on w niedalekiej przyszłości zastąpić GeForce 6200." a jak powiedziano że RV515 (RX1300) będzie mieć "tylko" 4 potoki to wszyscy gadali że to wstyd w tych czasach wypuszczać karte cztero potokową Edytowane 11 Stycznia 2006 przez mastermind-pl Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Xan02 Opublikowano 12 Stycznia 2006 Zgłoś Opublikowano 12 Stycznia 2006 (edytowane) @mastermind-pl Wlasnie o X1800XT mi chpdzilo, palec sie z 1 spadl :D A 4-potokowej karty w 2006 to troche wstyd w ogole wydawac :oops: Teraz 8 jest absolutnym rozsadnym minimum. Tak samo, dali by se wrescie siana z 64bit szynami. Edytowane 12 Stycznia 2006 przez Xan02 Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
mastermind-pl Opublikowano 12 Stycznia 2006 Zgłoś Opublikowano 12 Stycznia 2006 A 4-potokowej karty w 2006 to troche wstyd w ogole wydawac :oops: Teraz 8 jest absolutnym rozsadnym minimum. Tak samo, dali by se wrescie siana z 64bit szynami. ta 64 bitowa szyno jest pewnie dlatego że ta karta to będzie turbo cache, i kiedy będzie zjadać ram to będzie działac na 128 bit jak to normalnie jest przy TC lub HM. Na tweaku pojawiś się news na temat GF Go 7600 opartym na procesorze G72 albo G73 (nie pamiętam). co do nastepców X1300 i X1600 narazie nic, wiadomo tylko że będą sie nazywać x1400 i x1700, nic więcje, chodz i to jest pewnie jeszcze nie w 100% pewne Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
draak Opublikowano 12 Stycznia 2006 Zgłoś Opublikowano 12 Stycznia 2006 Gonię tego x1900xtx, ale obiektywnie patrząc mój a64 jest wolniejszy od ich FX'a, także można przyjąć z niemal całkowitą pewnością, że x1900xtx non o/c jest w zasięgu* x1800xt po "lekkim" o/c :D * Naturalnie piszę o marku05 oraz aktualnych grach, czyste shaderówki będą śmigać na x1900xtx zdecydowanie lepiej. Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
kszonek Opublikowano 13 Stycznia 2006 Zgłoś Opublikowano 13 Stycznia 2006 Gonię tego x1900xtx, ale obiektywnie patrząc mój a64 jest wolniejszy od ich FX'a, także można przyjąć z niemal całkowitą pewnością, że x1900xtx non o/c jest w zasięgu* x1800xt po "lekkim" o/c :D * Naturalnie piszę o marku05 oraz aktualnych grach, czyste shaderówki będą śmigać na x1900xtx zdecydowanie lepiej. a Twój proc nie skoczy wyzej troche? ile v chce na to 2800? przy wodzie powinien dac rade wiecej niz nedzne 2,8ghz ;) Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Heat Opublikowano 13 Stycznia 2006 Zgłoś Opublikowano 13 Stycznia 2006 (edytowane) Gonię tego x1900xtx, ale obiektywnie patrząc mój a64 jest wolniejszy od ich FX'a, także można przyjąć z niemal całkowitą pewnością, że x1900xtx non o/c jest w zasięgu* x1800xt po "lekkim" o/c :D * Naturalnie piszę o marku05 oraz aktualnych grach, czyste shaderówki będą śmigać na x1900xtx zdecydowanie lepiej. Polecam terapię "Zima" Fiacior za okno , kurteczkę ubierz i potraktuj twego proca jakimś solidnym V . Wierzę w to , że do 3GHz spokojnie dobijesz :wink: Ja w ten sposób zmusiłem mojego XL-a (R430) do pracy przy gpu taktowanym 482MHz :D Edytowane 13 Stycznia 2006 przez Heat Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
mastermind-pl Opublikowano 13 Stycznia 2006 Zgłoś Opublikowano 13 Stycznia 2006 to prawda z shaderówkach R580 będzie miał kopa, draak trzymam kciuki 11k coraz bliżej!!, dasz rade na pewno, co do G71 to ma wyjść dopiero w marcu, a jeżeli R580 ma być dostepny już 24 stycznia (dzień po moich urodzinach ;)) to ATi z pewnoścą będzie panować przez 2 miesiace tak jak to było z NV od lipca do października zanim nie wyszedł R520, a jak wiadomo nawet po wyjściu R520 G70 go dogonił i czasem przegonił to bardzo prawdopodobne że teraz taka sytuacja będzie z ATi Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
draak Opublikowano 13 Stycznia 2006 Zgłoś Opublikowano 13 Stycznia 2006 Dzięki za słowa wsparcia :) Postaram się pogonić klocki jeszcze szybciej, może będzie te 11k, szczególnie, że faktycznie można wykorzystać warunki atmosdertczne ;) Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Domell Opublikowano 14 Stycznia 2006 Zgłoś Opublikowano 14 Stycznia 2006 Tutaj są już konkretne testy x1900xt na procku Athlon 64 FX-60 :) http://forums.vr-zone.com.sg/showthread.php?t=53164 .......trzeba przyznać że wyniki bardzo ładne jednak jeśli prawdą jest że pierwsze sample G71 uzyskują na tym samym procku 13k pkt to ATI będzie królowac tylko przez 2 miechy.... BTW karta świetnie się kręci (z 620 na 715 na GPU..)...Można z tego zatem wywnioskowac że x1900xtx będzie osiągał około 12k pkt.....Jestem ciekaw co pokażą nowe karty w 3Dmarku 06 :D Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
mastermind-pl Opublikowano 14 Stycznia 2006 Zgłoś Opublikowano 14 Stycznia 2006 (edytowane) no to nieźle, na fx60 ponad 12 k w 05, a na fx57 i jeszcze troche proc podkręcony i karta też tak do 750/1900 to 13k padnie spoko, ciekawe jak się sprawa będzie miała do G71... Edytowane 14 Stycznia 2006 przez mastermind-pl Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
KiKiT Opublikowano 14 Stycznia 2006 Zgłoś Opublikowano 14 Stycznia 2006 No tak ale G71 ma miec te 13k na mocno wykreconym rdzeniu i pamieciach o dobre 200-300 MHz na default wyzszymi. Ciekawe swoją drogą jak podkrecac sie bedzie chip nV w 90 nm. XTX zdaje sie bedzie ciagnac prawie 12k a potencjal to on ma do 13k napewno. Ale jesli sie potwierdzi ze G71 jest tak mocny to pospiech ATI jest uzasadniony, a pogróżki od nV nie na wyrost. Czas pokaże, ceny tez beda miały duze znaczenie. Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Domell Opublikowano 15 Stycznia 2006 Zgłoś Opublikowano 15 Stycznia 2006 A tutaj pierwsze benchmarki x1900xt w F.E.A.R.-niestety tylko w rozdzielczości 1024x768, bez Antyaliasingu, Filtrowanie Trilinear i bez SoftShadows..... http://www.vrforums.com/showthread.php?t=53164&page=4 Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Sulaco Opublikowano 15 Stycznia 2006 Zgłoś Opublikowano 15 Stycznia 2006 A tutaj pierwsze benchmarki x1900xt w F.E.A.R.-niestety tylko w rozdzielczości 1024x768, bez Antyaliasingu, Filtrowanie Trilinear i bez SoftShadows.....i nic szczegolnego :( trzeba poczekac na jakies w lepszych trybach graf Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Racuch Opublikowano 15 Stycznia 2006 Zgłoś Opublikowano 15 Stycznia 2006 Po wynikach widac że u ATI to tylko kosmetyczna zwyżka wydajności a u dystrybutorów drastycznie spadła cena za X1800XL co to moze oznaczać hmmm? Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
cavarr Opublikowano 16 Stycznia 2006 Zgłoś Opublikowano 16 Stycznia 2006 Po tych testach jest jedno pewne ;) nowe karty graficzne potrzebują naprawdę mocnego procka aby rozwinąć skrzydła :) ps. to może oznaczać że przychodzi nowe :D Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Sulaco Opublikowano 16 Stycznia 2006 Zgłoś Opublikowano 16 Stycznia 2006 (edytowane) Po tych testach jest jedno pewne ;) nowe karty graficzne potrzebują naprawdę mocnego procka aby rozwinąć skrzydła :)eeee..tylko w 3dmarkach :) ps. to może oznaczać że przychodzi nowe no idzie...nowy 3dmark :) na starcie troche "unormuje" ta sytuacje ;) Edytowane 16 Stycznia 2006 przez Sulaco Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
chemiczny_ali Opublikowano 16 Stycznia 2006 Zgłoś Opublikowano 16 Stycznia 2006 Nie ma co sie goraczkowac :) Testy w jakims zalosnym trybie w ktorym karta nawet nie zdazyla "wejsc na obroty". Dodatkowo w dzisiejszych grach nie spodziewalbym sie jakis kosmicznych wynikow ,no moze jak wyjdzie cos opartego glownie na shader'ach a teksturowanie bedzie stosowane sporadycznie ,tak jak w nowym marku :) pozdrawiam Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
mastermind-pl Opublikowano 16 Stycznia 2006 Zgłoś Opublikowano 16 Stycznia 2006 A tutaj pierwsze benchmarki x1900xt w F.E.A.R.-niestety tylko w rozdzielczości 1024x768, bez Antyaliasingu, Filtrowanie Trilinear i bez SoftShadows..... http://www.vrforums.com/showthread.php?t=53164&page=4 na tym forum mmozna poczytać że jak wykręci się FX60 na 2.8 (około) GHZ to jest ponad 12,6K w 3DM05, a trzeba dodać że to są testy na X1900XT a nie XTX, gdzieś słyszałem że zwykły XT ma mieć obcięte potoki PS, chyba ma mmieć ich 32, ale nie wiem dokładnie. myslę że X1900XTX z troszke podkręconym cpu i sam troszeńke też wykręcony spokojnie trzaśnie 13k w 3DM05 Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...