Skocz do zawartości
mastermind-pl

G71 Kontra R580, Czyli Czym Zaskoczą Nas Najnowsze Karty.

Rekomendowane odpowiedzi

oki nv WYgryWa w grach itp z logiem NV...

a jak to bedzie naprawde może to bedzie niespodzianka starcie g71 i r580 bedzie bardzo ciekawe tylko co bedzie jeżeli jedna z firm np nv wypusci do premiery ati np g81 albo ati wypusci r600?? to co bedzie odpowiedzią na co ktory chip na ktory??

Naprawdę nie rozumiem o co się kłocić, ok, lubisz bardziej ATi niż nV ale co z tego? :blink: W moim przypadku jest tak, że nigdy jeszcze nie miałem u siebie ATi, ale kupię to co będzie bardziej opłacalne, a nie to które ma logo "ulubionej firmy". Nie lubię fanboyów :P

 

Trochę pokreciłem, ale mam nadzieję, że rozumiecie o co mi chodzi :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

HALO :kijem: braciak

 

My tu nie rozmawiamy o grach na konsole tylko o chipsecie R580 i G71! :ph34r:

 

PS. Śledzę temat o R520 i z tego co udało mi się wyczytać oraz potwierdzają to sami posiadacze nV to ATI ma większy minimum FPS. Ale karty te stawiam na podobnym poziomie. A na R580 czekam z wielką niecierpliwością. ;)

juz poszedł raport na braciaka..po prostu brak mi słów na takich ludzi :?

 

co do tematu to sadze iz znów stety/niestety wygra nvidia..ja osobiście jakos nie mam przekonania do ATI (choc nvidia mnie raz zrobiła w balona z 6800 i nf3 ale ze to pierwszy raz to wybaczam ;) )

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

moim zdaniem odpowiedz ati na gf 7800 to bedzie ati x1900

poniewaz ati pszysneło troszki

czasy gf3 to radek 8500

gf4ti radki 9500 i 9700

gf5x00 radki9800

gf6x00 radki x800

ile z tych starć przegrało ati ??

pamietajmy ze x1800 dopiero wchodzi na rynek a jusz w styczniu ati daje nam x1900:)

moim zdaniem nowe dzicko ati bedzie naprawde mocne i chyba g71 nie da rady..

no wątpie żę ati tu zawsze przegrywało

po pierwsze: 9500 który się modował na 9700 zmiatał z powierzchni każdego GF4, ZMIATAŁ

po drugie: fx'y też dostały po tyłku - 9200 wygrywa z 5200, 9600 wygrywa z 5600 i dorównuje 5700, a 9800 wygrywał z 5800 i 5900 łącznie z 5950

po trzecie: GF6 i Xx00 były na równym poziomie

po czwarte: X1x00 nieznacznie przegrywa z nv i to między innymy przez kombinacje nv z optymalizacjami itp itd.

 

więc ati dawało rade, a nawet wyznaczało nowe granice w wielu przypadkach.

 

 

najnowsze wycieki:

 

G71 będzie posiadać 32 potoki i 16 ROPów - podobnie jak G70, dodano tylko 8 potoków.

 

R580 będzie chodzić na 695/1550 - mowa tu o najmocniejszej wersjii.

 

oczywiście te informacje nie są w 100% pewne co do tego co będzie w przyszłości

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

I jeszcze mała informacja, która dziś zdobyłem od znajomego z Niemiec. Dostępność gtx512MB na chwilę obecną w hurtowniach to zero sztuk. Powinno dać to do myślenia osobom pomstującym na ati, że ich topowe produkty są ciężko dostępne.

 

Decyzja przyspieszenia premiery r580 to świadomy wybieg ati, chcą na kilka miesięcy objąć koronę lidera wydajnośći (bo teraz to miano przypada gtx512MB, a nie x1800xt, brak dostępności tego gtx'a nikogo zdaje się nie martwić) i bardzo dobrze- będzie to zdecydowanie bardziej komfortowo dla Kanadyjczyków sytuacja niż przy premierze g70.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Decyzja przyspieszenia premiery r580 to świadomy wybieg ati, chcą na kilka miesięcy objąć koronę lidera wydajnośći

a skąd wiesz że R580 nie będzie lepszy od G71? może wyjdzie wcześniej a G71 go nie pokona. dlaczego uważasz że jeżeli coś wychodzi wcześniej to musi przegrać z późniejszym? a jak byłó z G70? lekki leefting i pokonał nowszego X1800XT. myslę że R580 i jego 48 PS to olbrzymia moc która zaskoczy nas wszystkich a w przyszłości może być znacznie lepszym rozwiązaniem od G71. narazie czekamy.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

a skąd wiesz że R580 nie będzie lepszy od G71? może wyjdzie wcześniej a G71 go nie pokona. dlaczego uważasz że jeżeli coś wychodzi wcześniej to musi przegrać z późniejszym? a jak byłó z G70? lekki leefting i pokonał nowszego X1800XT. myslę że R580 i jego 48 PS to olbrzymia moc która zaskoczy nas wszystkich a w przyszłości może być znacznie lepszym rozwiązaniem od G71. narazie czekamy.

 

Może ale nie musi byc szybszy...To że posiada aż 48 jednostek PS jeszcze nic nie oznacza...Z pewnością będzie to potężny układ jednak troszkę się obawiam o to czy te 48 PS nie będzie hamowane przez 16TMU i 16ROP`ów...Zauważ że podobną proporcję co r580 ma obecnie rx1600xt i nie imponuje jakoś specjalnie wydajnością nad GF6600GT mimo znacząco wyższego taktowania i posiadania tych 4 jednostek PS oraz 2 jednostek VS więcej....

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie powiedział tego jednoznacznie bo jeszcze nic nie wiadomo. To tylko spekulacje.

 

Co do R580 to nareszcie skończą się problemy z ograniczeniem PixelShadera. ;) W COD2 wszystko na full w 1024x768 na moim dziadku R350 mam lekko ponad 100FPS. A jak włącze PS2.0 to prędkość spada do 20-25FPS. Więc te 16potoków pewnie spokojnie wystarczy i procesorów shaderów także. A jak już gry całkowicie pójdą w stronę shaderów to dołożą kolejne i z bani. To chyba łatwiejsze niż pełne potoki. ;)

 

@Domell

Przypuszczam, że tak to przekalkulowali i zaprojektowali, że nie będzie jedno drugiego dławiło. Może mają nowy patent jak z kontrolerem pamięci RING BUS?? :-P

Edytowane przez kojak_ct

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie powiedział tego jednoznacznie bo jeszcze nic nie wiadomo. To tylko spekulacje.

 

Co do R580 to nareszcie skończą się problemy z ograniczeniem PixelShadera. ;) W COD2 wszystko na full w 1024x768 na moim dziadku R350 mam lekko ponad 100FPS. A jak włącze PS2.0 to prędkość spada do 20-25FPS. Więc te 16potoków pewnie spokojnie wystarczy i procesorów shaderów także. A jak już gry całkowicie pójdą w stronę shaderów to dołożą kolejne i z bani. To chyba łatwiejsze niż pełne potoki. ;)

Akurat zły przykład bo wszyscy wiemy że COD2 ma zrypany silnik w DX9....Przykładem jak powinna chodzić gra i do tego świetnie wyglądac jest Far Cry czy HL2....Tam też są shadery i jakoś giery zasuwają na kartach pokroju GF6600GT i Radzia 9800pro w porównaniu do takiego COD2...

A co do przyszłych gier to jest to zanim pójdą one zdecydowanie w stronę shaderów to na rynku już będą G80 (czy NV50...) oraz r620 albo i jeszcze ich kolejni następcy......

 

Pozdro :wink:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

G71 będzie posiadać 32 potoki i 16 ROPów - podobnie jak G70, dodano tylko 8 potoków.

 

R580 będzie chodzić na 695/1550 - mowa tu o najmocniejszej wersjii.

 

oczywiście te informacje nie są w 100% pewne co do tego co będzie w przyszłości

Cholera mastermind-pl naucz się, albo przyzwyczaj! TAM NIE MA POTOKÓW :-| :wink: . TO są PIXEL SHADERY!

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Cholera mastermind-pl naucz się, albo przyzwyczaj! TAM NIE MA POTOKÓW :-| :wink: . TO są PIXEL SHADERY!

nie wiem jak ty to rozumujesz ale ja uważam żę w gpu są potoki renderujące (TMU), potoki pi(K)sel :) shader i ropy. te pierwsze odpowidaają za tekstury (te zwykłe), drugie za shadery a trzecie za końcową obróbkę obrazu i za AA i ANISO.

 

a więc R580 będzie mieć 16 TMU i 16 ropów oraz 48 ps

 

natomiast G71 będzie mieć 32 TMU, 32 ps i 16 ropów

 

a więc jak widać oba układy będą miały tą samą liczbe jednostek generujących obraz - 80, tylko że w innych proporcjach.

Edytowane przez mastermind-pl

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

a skąd wiesz że R580 nie będzie lepszy od G71? może wyjdzie wcześniej a G71 go nie pokona. dlaczego uważasz że jeżeli coś wychodzi wcześniej to musi przegrać z późniejszym? a jak byłó z G70? lekki leefting i pokonał nowszego X1800XT. myslę że R580 i jego 48 PS to olbrzymia moc która zaskoczy nas wszystkich a w przyszłości może być znacznie lepszym rozwiązaniem od G71. narazie czekamy.

Ati tak nas zaskakuje coraz to wymyslniejszymi konstrukacjami, ale cos jej to w praktyce nie wychodzi. :-P

Technologa magistralii pierscieniowej w X1800 nie jest niczym wybitnym pod wzgledem wydajnosci, a dowodem na to jest to, ze rdzen X1800 jest taktowany z czestotliwoscia ponad 600Mhz a tylko delikatnie przegania 7800GTX taktowanego 430Mhz.

A ta zawrotna ilosc 48PS, to na kolana ma nas to zwalic?? :)

nVIDIA swoimi wydajniejszymi od ATi 32PS(w wiekszosci porownan nowe Geforce'y sa szybsze od Radeonow w PS) i tak zrowna sie w wydajnosci z 48PS'ami Radeona, albo go wyprzedzi. :-P

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Cały myk polega na tym że ATI nie wypuszcza na tyle lepszego produktu od NV żeby było to zauważalne jak np 9500 vs TI4200.

Do tego ostatnimi czasy NV wypuszcza karty ze sporym wyprzedzeniem albo znacznie bardziej atrakcyjne cenowo aka X700 vs 6600. (Moim zdaniem X700 było lepsze ale sporo droższe... )

W takim wypadku w momęcie wypuszczania kart przez ATI, NV ma już rynek, pozytywne opinie, testy i pracują już nad nowymi GPU/ulepszeniami.

Dlatego ja G71 wróże wiekszy sukces niż R580...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Przegralo ATi

gf6x00 radki x800

i jeszcze 7800 vs. X1800 po wydaniu GTX 512MB

juz 2 generacje daly rade to czemu i nie 3 :-P

A pozatym ATi od poczatku to noga w OpenGL

X800XT PE był wydajniejszy od 6800U nie wspominając o X850XT PE

 

nie wiem jak ty to rozumujesz ale ja uważam żę w gpu są potoki renderujące (TMU), potoki pi(K)sel :) shader i ropy. te pierwsze odpowidaają za tekstury (te zwykłe), drugie za shadery a trzecie za końcową obróbkę obrazu i za AA i ANISO.

 

a więc R580 będzie mieć 16 TMU i 16 ropów oraz 48 ps

 

natomiast G71 będzie mieć 32 TMU, 32 ps i 16 ropów

 

a więc jak widać oba układy będą miały tą samą liczbe jednostek generujących obraz - 80, tylko że w innych proporcjach.

Za bardzo upraszczasz. Poza tym z tego co wiem ATI nie mają ropów. Z tego co wiem kary X1800 mają takie jednostki:

Pixel processors, vertex processors, texture units (TMU), render back-ends, z-compare units do tego maja jeszcze jakiś dispatch processor.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

...i pierścieniowy kontroler pamięci na dokładkę. Ogólnie wróżę r580 sporą przewagę nad g71, jest to po prostu bardziej zaawansowana technologicznie karta.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

widze ze masz 7800 cz to prawda ze taki GPU obsuguje lylko max

rozdzielczosc 1600 X 1280 a jesli nie to jaka jest maksimum bo nowe

ATI obsuguja 2048 x1536

bo mysle se takiego kupic tylko niewiem jeszcze co wybrac . :lol: :lol: :lol:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

widze ze masz 7800 cz to prawda ze taki GPU obsuguje lylko max

rozdzielczosc 1600 X 1280 a jesli nie to jaka jest maksimum bo nowe

ATI obsuguja 2048 x1536

bo mysle se takiego kupic tylko niewiem jeszcze co wybrac . :lol: :lol: :lol:

Nie wiem do kogo kierujesz te slowa :? Nie wiem rowniez czy sam wymysliles te bzdury :blink:

Kazda nowa karta obsluguje 2048x1536 :lol2: A co do kupna to najlepiej poczekac do lutego :lol2: pozdrawiam

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

COD2 to dobry przykład. Nie chodzi mi o zepsute shadery ale o wydajność bez nich. Gdyby nie shadery to grałbym w 1280x1024 w niecałych 100klatkach. A chciałbym dodać, że 9800Pro ma tylko 8potoków. Dzisiaj karty maja po 16 potoków. Dla tego sądzę, że do teksturowania to wystarczy a resztę będą załatwiać shadery. ;)

 

Nie zapominajmy, że ATI teraz trzyma sztame z M$ i dla tego sądzę, że są o krok do przodu przed nVidią i najlepiej wiedzą co będzie najlepsze w rozwoju DirectX.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

COD2 to dobry przykład. Nie chodzi mi o zepsute shadery ale o wydajność bez nich. Gdyby nie shadery to grałbym w 1280x1024 w niecałych 100klatkach. A chciałbym dodać, że 9800Pro ma tylko 8potoków. Dzisiaj karty maja po 16 potoków. Dla tego sądzę, że do teksturowania to wystarczy a resztę będą załatwiać shadery. ;)

 

Nie zapominajmy, że ATI teraz trzyma sztame z M$ i dla tego sądzę, że są o krok do przodu przed nVidią i najlepiej wiedzą co będzie najlepsze w rozwoju DirectX.

Zawsze jak sobie o tym przypominam to mnie szlag trafia :mur: Tylko gorzej dla klienta :?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

...i pierścieniowy kontroler pamięci na dokładkę. Ogólnie wróżę r580 sporą przewagę nad g71, jest to po prostu bardziej zaawansowana technologicznie karta.

Piersicieniowy kontroler pamienci byl i w X1800 i tez mial dac spora przewage nad G70.

Co z tego wyszlo wszyscy wiemy. X1800XT ledwo przegonil taktowanego 200Mhz mniej na rdzeniu i ok. 300Mhz na pamienciach 7800GTX, a taktowany troche mniej od niego, GTX512MB rozprawil sie bez problemu z 'cudownym' R520.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Piersicieniowy kontroler pamienci byl i w X1800 i tez mial dac spora przewage nad G70.

Co z tego wyszlo wszyscy wiemy. X1800XT ledwo przegonil taktowanego 200Mhz mniej na rdzeniu i ok. 300Mhz na pamienciach 7800GTX, a taktowany troche mniej od niego, GTX512MB rozprawil sie bez problemu z 'cudownym' R520.

to ciekawe jak by wypadły obie karty gdyby im ustawić takie same taktowanie - pamieci np 1800 i rdzenie tak aby obie karty miały identyczną prędkość wypełniania, wtedy by się zobaczyło co jest lepsze i co ma lepszą architekture R520 czy G70

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

to ciekawe jak by wypadły obie karty gdyby im ustawić takie same taktowanie - pamieci np 1800 i rdzenie tak aby obie karty miały identyczną prędkość wypełniania, wtedy by się zobaczyło co jest lepsze i co ma lepszą architekture R520 czy G70

bylo robione juz cos podobnego

 

http://www.driverheaven.net/articles/efficiency/

 

a nawet wiecej - zostala zrownana ilosc potokow, taktowanie redenia i pamieci, i g70 wypada zdecydowanie lepiej, tyle, ze to niczego nie dowodzi - imho im wyzsze taktowanie ma r520 tym wyzsza sprawnosc osiaga, a g70 zaczyna sie dlawic. kwestia architektury - jedna lepiej czuje sie przy wysokich taktach, inna przy nizszych, tak wiec ogolnie takie porownania sa imho bez sensu.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Z zegarami wysokimi i architekturą, zwłaszcza tymi układami odpowiedzialnymi za shadery nV miala problemy od poczatku GF, co nie znaczy, że przy NV40/50 nie bylo i bedzie przelomu. Zunifikowane jednostki shader na dobre zajma miejsce dzisiejszych tekstur w grach pod DX, co ma znaczaco wplynac na poprawe jakosci i szybkosci produkcji gier->mniej tekstur, zunifikowany kod dla konsol i pc, ale znacznie bardziej skomplikowany i coraz dluzszy kod dla shaderow. Z drugiej strony pozostaje OpenGL, oparty wylacznie na teksturach, ktory jest moze mniej efektywny(strasznie dlugi czas developingu, problemy z optymalizacją, poteżne wymagania), ale nie mniej efektowny w ostatecznym rezultacie.

Edytowane przez KiKiT

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

bylo robione juz cos podobnego

 

http://www.driverheaven.net/articles/efficiency/

 

a nawet wiecej - zostala zrownana ilosc potokow, taktowanie redenia i pamieci, i g70 wypada zdecydowanie lepiej, tyle, ze to niczego nie dowodzi - imho im wyzsze taktowanie ma r520 tym wyzsza sprawnosc osiaga, a g70 zaczyna sie dlawic. kwestia architektury - jedna lepiej czuje sie przy wysokich taktach, inna przy nizszych, tak wiec ogolnie takie porownania sa imho bez sensu.

to właśnie mówiłem żeby zrobić tak, że oba układy mają taką smą prędkość wypełniania, a nie że oni obcinają 8 potoków u G70, jak dla mnie ten test nie jest miarodajny, a juz na pewno testy w doom 3 zoptymalizowanym pod nv, i niech nikt tego nie zaprzeczy.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Piersicieniowy kontroler pamienci byl i w X1800 i tez mial dac spora przewage nad G70.

Co z tego wyszlo wszyscy wiemy. X1800XT ledwo przegonil taktowanego 200Mhz mniej na rdzeniu i ok. 300Mhz na pamienciach 7800GTX, a taktowany troche mniej od niego, GTX512MB rozprawil sie bez problemu z 'cudownym' R520.

Przecież pisałem o r520 właśnie, naucz się składać literki ze zrozumieniem. A co do reszty wypowiedzi, n/c. Rozumiem, że masz np r520 albo g70? Bo jak nie, to twoje domorosłe teorie międzie bajki włóż gdzie ich miejsce.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach




×
×
  • Dodaj nową pozycję...