Skocz do zawartości
MeoPL

Ati R600

Rekomendowane odpowiedzi

Czyli mam rozumieć że poprzednie zdjęcia kart to fake? Czy po prostu zastosowali jakieś inne chłodzenie. Hmm ja się nie spodziewałem 20k w smarku 06 ,ale po AMD/ATI spodziewałem się zdeka czegoś lepszego ,bo karta przecież jest odpowiedzią na G80. Także te zestawienie AMD Athlon64 FX55 + x2800XTX oraz wyniki są niezadowalające. Jeśli wierzyć temu testowi na smarkach to różnica kilku %. Czy dla tego warto czekać na nowy wynalazek AMD/ATI ,na spadki cen dla tych paru % ? IMO nie i mam nadzieję że sprawa będzie wyglądała inaczej jak w grach pokaże pazurki . Czekam nadal i kasę domyślnie odkładam na 8600GT Ultra /8800GTS 320/320bit...

 

Podany został wynik w 3Dmark06 ~15 K na x2800XTX ,a nie widzę na tym samym procku wyniku na 8800GTX...

Edytowane przez Devil

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

gdybys przeczytal poprzednie 2 strony topica to bys wiedzial ze ta dluga wersja jest pzreznaczona na rynek OEM, a ta krotsza to wersja retail dla mas

 

co do proca QX6700 , no chyba lepszego nie mogli do 3dmarka06 :( cale szczescie ze pdoali konkretne wyniki poszczegolnych podtestow bo na takim procesorze to chyba radziu 9800 by zakozaczyl niezle;p hehe

 

dla mnie ati idzie w slepa uliczke, przydala by im sie taka rewolucja na miare c2d wsrod procesorow, w ogole wypuszczenie r600 w 80nm to porazka, tylko dla uspokojenia rynku ze nie sa gorsi od nvidii, mam nadzieje ze przyszla wersja r600+ w 65nm szybko wyjdzie....

Edytowane przez Lizardus

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

gdybys przeczytal poprzednie 2 strony topica to bys wiedzial ze ta dluga wersja jest pzreznaczona na rynek OEM, a ta krotsza to wersja retail dla mas

 

co do proca QX6700 , no chyba lepszego nie mogli do 3dmarka06 :( cale szczescie ze pdoali konkretne wyniki poszczegolnych podtestow bo na takim procesorze to chyba radziu 9800 by zakozaczyl niezle;p hehe

 

dla mnie ati idzie w slepa uliczke, przydala by im sie taka rewolucja na miare c2d wsrod procesorow, w ogole wypuszczenie r600 w 80nm to porazka, tylko dla uspokojenia rynku ze nie sa gorsi od nvidii, mam nadzieje ze przyszla wersja r600+ w 65nm szybko wyjdzie....

..tylko czemu w 06 na tym procku podali wyniki R600 tylko ....a GTXa nie

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Z tym 0.65nm to może nie być tak prędko. Podobno sporo trudności jest przy takich rozmiarach (gdzie ja to czytałem ?) No ale myślę że do zrealizowania. Także ogólnie AMD mogło się bardziej postarać z tym swoim nowym układem. Co do QX6700 to czemu nie ? Mogli zrobić testy i na 8800GTX to by też coś wyszło. Chodzi mi też o max wyciągnięcia z karty.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gość Ludwiczek

Ciekawe tylko jak się spisze 88 i R600 w grach z Direct 10... no ale na to to sobie jeszcze poczekamy. Szkoda tylko, że dla posiadaczy 8800GTX R600 nie jest ciekawą propozycją i przesiadka praktycznie dla kilku % nie ma sensu a kosztuje dużo.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Bo gtx na tym procu by miał bardzo podobny wynik, zajrzyj na orba.

heh wiem napisałem to z lekką aluzją :)

 

Ciekawe tylko jak się spisze 88 i R600 w grach z Direct 10... no ale na to to sobie jeszcze poczekamy. Szkoda tylko, że dla posiadaczy 8800GTX R600 nie jest ciekawą propozycją i przesiadka praktycznie dla kilku % nie ma sensu a kosztuje dużo.

..No 5fps i 100W więcej.....żadna propozycja........jakby było z 20% to bym się zastanowił ...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Czytam to i czytam i doszedłem do wniosku, że należy na allegro zacząć skupować Fortrony 350W i dowalać im naklejkę "ATi R600 Approved" :P przeciez to będzie wymagało dodatkowego zasilacza, a jeszcze po podkręceniu ?? IMO karta dla ludzi z mocnym WC albo FC bo tego to normalny użytkownik i tak nie wykorzysta :P ale co tam.... Ważne żeby był wzrost wydajności bo jak będzie faktycznie 5 FPS za dodatkowe 100W mocy pobieranej to - "ale wodzu co wódz? To ja przepraszam" - kiepski dowcip ze strony ATi się szykuje.

 

Btw: te dwa wejścia to już chyba w standard ATX mierzone :P

 

Pozdrawiam.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Przepraszam a jak było z 7900GTX vs 1900XTX? Też niewiele wyzsza wydajnosc radka, wiekszy pobór mocy i głośne chłodzenie, nie wiem czego sie spodziewaliście... chociaz teraz to nie jest większy pobór mocy, tylko DUŻO większy pobór mocy :)

 

Poza tym, poczekajmy do OFICJALNYCH testów na grach, a przede wszystkim na CoH'a w DX10, bo nei wiem czy te testy mozna uznac za oficjalne... skoro nawet zdjecia karty nie ma.

 

Kurde, chociaz przyznac musze ze jest nienajlepiej, szczególnie z poborem prądu...

Edytowane przez MaZZeo

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Akurat z tym poborem prądu to pół biedy. Mnie interesuje wydajność/cena. Bo kto kupi kartę ,która jest niewiele lepsza od układów g80 (mówie o najszybszym GTX a XTX) za cenę wyższą dajmy na to... 30%. To chyba nielogiczne. O grach to ja bym zapomniał ,że tak szybko pokażą na co stać te karty. Powiedzmy że ten Crysis będzie śmigał w miarę ok na tym 8800GTX. No dobra przyjmijmy jednak ,że Crysis to nie jest max możliwości DX 10. Byl FarCry i pojawił się Oblivion a dalej to już każdy wie jak to chodziło na takim 9800 PRO. Mam szczere obawy o to ,że te karty to będzie za mało. Może na pierwsze gry ok poradzi sobie jakoś ,ale im dalej tym producenci będą starali się wyciskać max z DX10. Tak było przecież z DX7 ,DX8 , DX9 ,więc nie powinienem się temu dziwić... ale jednak kasę na tym mogę stracić. Także nie wiem czy męczyć się jeszcze przez te półtora roku z DX9 czy brać jak tylko Crysis wyjdzie ,ludzie porobią testy i podzielą się nimi. ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Devil

 

Skoro Crysis będzie prawdopodobnie pierwszą grą ostro wykorzystującą DX10

to Ja z zakupem grafy klasy G80 / R600 poczekał bym do premiery przynajmniej Dema Crysis ,

ewentualnie jak wyjdzie coś innego wykorzystującego DX10 ,to wtedy podejmiesz takową decyzję.

Z twoją grafą spoko sobie jeszcze pograsz w najnowsze gry.

Z drugiej strony na Crysis'a możemy poczekać jeszcze roczek :/ nigdy nie wiadomo , mogą im dyski wykraść

albo Binladen wysadzi im siedzibę :) alb wymyślą jeszcze coś innego.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli te dane z ceną w tabeli są prawdziwe, to poczekam na wydajność X2800 GTO. Mógłby już też ten DAMMIT podać szczegółowe info i cenę, ale raczej nie podadzą, bo znowu się będą bać NV....co za paranoja. Moim zdaniem to będzie trzeba poczekać jeszcze ten miesiąc na oficjalne testy, zdjęcia i ceny. A wiadomo, że w Polsce ceny bedą i tak zawsze wyższe, niż te, które ustali producent przed premierą. Oczywiście ciekawy jestem, co te karty będą prezentować w DX 10, bo wiadomo, że w DX 9 sobie dadzą radę ze wszystkim.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gość energopol

Ati w 3 d markach zawsze bylo troche lepsze od nV szczegolnie w tych nowych. W grach bedzie tak samo jak GTX/GTS. Jako zwolennik ATI (i opierajac sie o te testy) powiem krotko. Mizernie to wyglada. I trzeba dodac ze pazernosc na prad jest praktycznei pewna juz. Nie tak sobie wyobrazalem "know how" AMD wykorzystane u chlopakow z pod znaku klonowego liscia.

moze poczekajmy na dx10 tests a nie wnioski na testujac na badziewnym smarku 06 czy 05 w 1024x768

pozatym co to za testy bez fsaa i anizo wtedy cala masakryczna przewaga w pamiatkach idzie w niebyt tak wiec lamerskie testy i tyle wnioski tylko z fsaa 4x i anizo 16x z hdr bo to takich rzeczy sie kupuja takie karty :damage_wall:

 

Hmm 05 proc ma duże znaczenie , ale u mnie na 8800GTX w 05 jest 16470....przy 575/1800.

Jak te testy są ok to te pare klatek kosztem prawie 100w więcej ...poprostu kiszka.

bezsens testować w 03,05...skoro proc tutaj blokuje wyniki najbardziej........

a czy u ciebie testy tez byly na fx 55 :damage_wall: z dobrym prockiem i oc 20k peknie

 

270W, pol roku pozniej po konkurencie i taka mizerna przewaga? ZAL!

dodam do tego jeszcze ze nvidia w swoich GF8800 nie uzywa DDR4 tylko 3, i jeszcze ma gorsza szyne pamieci, no i jeszcze to ze r600 bedzie wykur**** glosny bo to jest pewne

tak a czy smarki byly z fsaa4x anizo 16x

po kija mi mega przepustowosc bez tego

prawdziwe testy dla takich kart to 1600x1200 z fsaa 4x i anizo 16x + hdr

Edytowane przez energopol

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

O matko, r600 ma ciągnać około 300 WATT? To nie na Polskie warunki energetyczno cenowe :lol:

 

Fakać crysis, unreal tour 2007 zbliza sie wielkimi krokami ^^

Edytowane przez apo5

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ciekawe jaka będzie wydajność takiego x2300xt i ile prądu pociągnie. Cena 100$ nie jest taka straszna, u nas będzie ok 450zł. x2600pro też prezentuje się nieźle. Mam nadzieję że te karty da się chociaż trochę podkręcać.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

O matko, r600 ma ciągnać około 300 WATT? To nie na Polskie warunki energetyczno cenowe :lol:

 

Fakać crysis, unreal tour 2007 zbliza sie wielkimi krokami ^^

e tam 300, 400 i w ogóle będzie gryzł, drapał :lol2: :wink:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Z tym poborem prądu to przesadzili, chip niby robiony od zera więc mogli ograniczyć pobór mocy, mieli pół roku więcej niż nV, ale jednak musieli dowalić te 250W. Dobrze że to już ostatnie takie gpu bo r700 ciągnąłby w idle ze 300W.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Z tym poborem prądu to przesadzili, chip niby robiony od zera więc mogli ograniczyć pobór mocy, mieli pół roku więcej niż nV, ale jednak musieli dowalić te 250W. Dobrze że to już ostatnie takie gpu bo r700 ciągnąłby w idle ze 300W.

Spokojnie, to pierwsza rewizja tej karty, na początku każdy topowy model mało różni się od szuszarki do włosów, a z czasem, jak przejdą na 65 nm, pobór spadnie i wszystko wróci do jakiś ludzkich 150 W w TOP, i adekwatnie niższym poborze w midlle i low-end, myślę też że panowie od ATI wypuszczą (może jeszcze w tym roku?) nową rewizje o mniejszym apetycie na prąd, może uda im się to w 90nm?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

nom jak r600 jest robiony w 80nm to stworzyc nowa rewizje o mneisjzym poborze mocy w 90nm to jest sztuka:E

moze jeszcze w tym roku? mysle ze pod koniec roku wyjdzie jakas nowa generacja kart(gf9 i rxxx)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Oj żebyśmy tylko nie zostali z jednym monopolistą na rynku <_<

 

Ale co do wyników to kto o zdrowych zmysłach, jak już tu co bardziej kumaci podkreslil - robi testy takich potworów w 1024 czy 1280 bez FSAA, AA i HDR ... no ludzie drobie pomyslunku. Chyba sepcjalnie dla podbuzenia takie dane podaja ...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

nom jak r600 jest robiony w 80nm to stworzyc nowa rewizje o mneisjzym poborze mocy w 90nm to jest sztuka:E

moze jeszcze w tym roku? mysle ze pod koniec roku wyjdzie jakas nowa generacja kart(gf9 i rxxx)

Bez przesady, pod koniec roku to wypuszcza 8900GTX/GTS/GT no i X2900XTX/XT/XL... przeciez seria GF7 będzie w czerwcu kończyć dwa lata, wątpie zeby dawali kolejna generacje po mniej niz roku.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

GF8900 to maja juz niedlugo wypuscic zeby dobic r600 w momencie premiery(ale jest prawie pewne ze gf89xx wyjdzie po premierze r600),

moze z nowa generacje jeszcze w A.D.2007 przesadzilem bo r600 ma spore mozliwosci jak sie zmniejszy produkcje do 65nm, podobno juz kraza legendy o wersji 1Ghz (core)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gość
Ten temat został zamknięty. Brak możliwości dodania odpowiedzi.



×
×
  • Dodaj nową pozycję...