Skocz do zawartości
XvAK

Ati Radeon Hd58xx

Rekomendowane odpowiedzi

Dlatego w oficjalnych testach będzie jeszcze słabiej , w grach gdzie ati sobie dobrze radziło będzie ok , tam gdzie było kiepsko nadal będzie kiepsko. Także przypuszczalnie będzie te 20% szybciej od gtx285.

Jak sam pisałeś ATI ma zawsze na początku niedopracowane sterowniki. 285 ma już chyba dopięte? Poza tym 20% więcej od karty do której żadna jednordzeniowa ATI nie miała do tej pory podejścia to chyba dobrze jest :) z uwagi na cisze po stronie konkurencji.

 

Z czeskich testów wynika 37% przewagi nad 285 w najbardziej interesującym Ventage X i podejrzewam, że taka lub zbliżona będzie średnia różnica w Full HD. Nie zmienia to faktu, że w niektórych grach przewaga będzie mała ale to nadal przewaga.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gość marantz5003

moze mi ktoś powiedziec czemu nvidia opóźnia premiere swoich kart? hd5870-te karty dx11 powinny być jeszcze szybsze w dx11:) są jakieś informacje kiedy będzie wersja x2?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie ma czym sie podniecac imho... gtx295 ciagle w wiekszosci gier wypada lepiej =] Wychodzi na to, ze nvidia spokojnie moze powalczyc z ati jedynie obnizajac cene gtx'a ;)

295 to microstuttering, nierówna wydajność jak to na dwu rdzeniówkach większe zużycie prądu, brak DX 10.1 i DX 11. Do tego z tego co ja widziałem to większość gier jest na korzyść jedno rdzeniowego 5870 więc? A nie zapominajmy, że wyjdzie jeszcze 5870x2.

 

moze mi ktoś powiedziec czemu nvidia opóźnia premiere swoich kart? hd5870-te karty dx11 powinny być jeszcze szybsze w dx11:) są jakieś informacje kiedy będzie wersja x2?

Wszyskie rdzenie 40nm będzie produkować korporacja TSMC.

nVidia nie ma takich relacji z TSMC jakie ma ATI które współpracuje z nimi już kilka lat. NVidia dopiero zaczyna. Dostali po prostu sankcję na nowy proces technologiczny 40nm pewnie na życzenie ATI. Taki wyraz lojalności. Być może TSMC ma zamiar przejąć całą produkcję procesorów AMD i dlatego tak się chce ustawić po stronie ATI?

Edytowane przez maxymili

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wszyskie rdzenie 40nm będzie produkować korporacja TSMC.

nVidia nie ma takich relacji z TSMC jakie ma ATI które współpracuje z nimi już kilka lat. NVidia dopiero zaczyna. Dostali po prostu sankcję na nowy proces technologiczny 40nm pewnie na życzenie ATI. Taki wyraz lojalności. Być może TSMC ma zamiar przejąć całą produkcję procesorów AMD i dlatego tak się chce ustawić po stronie ATI?

AMD ma wlasna spolke ktora produkuje GPU dla siebie i firm trzecich, wiec TSMC nie przejmie w najblizszej przyszlosci produkcji procesorow AMD.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Do tego z tego co ja widziałem to większość gier jest na korzyść jedno rdzeniowego 5870 więc?

Powiedz mi ile osob skorzysta na przewadze w rozdzielczosci 2560x1600? Dla wiekszosci liczy sie max 1920x1200. Do tego aniso x4 i aa x8 imho jest w zupelnosci wystarczajace. Przy takich kryteriach wyniki sa w praktycznie kazdej grze na korzysc starego gtx'a. W CoD czy UT to ponad 30 fps roznicy.

 

Battleforge 47:50

CoH 103:112

Call of duty 112:144

Crysis: Warhead 43:48

DMC 99:139

Far Cry 2: 51:63

L4D 152:157

Prey 217:225

Unreal Tournament 3 91:132

Wolfenstein 104:126

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Powiedz mi ile osob skorzysta na przewadze w rozdzielczosci 2560x1600? Dla wiekszosci liczy sie max 1920x1200. Do tego aniso x4 i aa x8 imho jest w zupelnosci wystarczajace. Przy takich kryteriach wyniki sa w praktycznie kazdej grze na korzysc starego gtx'a. W CoD czy UT to ponad 30 fps roznicy.

 

Battleforge 47:50

CoH 103:112

Call of duty 112:144

Crysis: Warhead 43:48

DMC 99:139

Far Cry 2: 51:63

L4D 152:157

Prey 217:225

Unreal Tournament 3 91:132

Wolfenstein 104:126

Ale sobie wybrałeś kryteria :)

Jeżeli kupujesz kartę która pozwala grać z wszystkim na max to po kiego masz ograniczać AA i AF? Co do rozdzielczości to większość ograniczy się do full HD ale najdroższe karty graficzne często kupowane są także do gry na dużych TV o rozdzielczości 2560x1600, bo jeżeli kogoś stać na kartę za półtora tysiaczka to i na taki TV będzie miał kasę.

 

AMD ma wlasna spolke ktora produkuje GPU dla siebie i firm trzecich, wiec TSMC nie przejmie w najblizszej przyszlosci produkcji procesorow AMD.

A czy oni wg Ciebie myślą tylko o tym co się stanie dziś i jutro? Na pewno chcieli by przejąc całą produkcje AMD a do tego konieczne jest miedzy innymi zaufanie ze strony klienta. Kto kupi taką usługę, jeżeli nie będzie pewny lojalności? Edytowane przez maxymili

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A czy oni wg Ciebie myślą tylko o tym co się stanie dziś i jutro? Na pewno chcieli by przejąc całą produkcje AMD a do tego konieczne jest miedzy innymi zaufanie ze strony klienta. Kto kupi taką usługę, jeżeli nie będzie pewny lojalności?

A czy myslisz ze AMD wpadowalo kupe kasy we wlasna spolke, fabryki po to zeby teraz zrezygnowac ?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Oprocz samych FPS-ow sa jeszcze inne kryteria oceny kart, takie jak zuzycie energii czy stosunek wydajnosc/cena. W obu przypadklach ATI jak na razie krolowala.

Nie samym fps-em czlowiek zyje :)

 

Poczekajmy na rzetelne testy.

 

We’ve learned that the current TDP for X2 is 376W and that the company is working on this issue, as apparently they will have to slow down the GPUs down by quite a lot to get rid of the heat.

Zrodlo: Fudzilla

 

Tak... lepiej poczekac na testy ;)

Edytowane przez Burdoror

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wybralem kryteria praktycznosci ;) zeby dostrzec roznice pomiedzy tymi poziomami anizo i aa, czesto trzeba zrobic zrzut ekranu i powiekszyc obraz :D

Choćby nic nie było widać, skoro mamy 120 klatek, albo w ogóle powyżej 40 klatek to czemu mamy obniżać jakość obrazu? Nawet jeżeli świadomie tego nie widzisz to podświadomość odczuwa różnicę w jakości i wrażenie pozostaje.

@czullo - dobra, ty masz rację, a ja spokój ;) może być?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dla wiekszosci liczy sie max 1920x1200. Do tego aniso x4 i aa x8 imho jest w zupelnosci wystarczajace.

Nie jest wystarczające co doskonale widać na bardziej złożonych geometrycznie obiektach (kwestia AA) czy bardziej oddalonych płaszczyznach (kwestia AF). AA x4 i AFx8 jest jakościowo taki sobie.

 

Wybralem kryteria praktycznosci ;) zeby dostrzec roznice pomiedzy tymi poziomami anizo i aa, czesto trzeba zrobic zrzut ekranu i powiekszyc obraz :D

Nonsens ... w pewnych sytuacjach AAx4 potrafi porazić swoją niedoskonałością.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

od poczatku chodzilo mi tylko i wylacznie o fps'y, a te przy zastosowaniu pewnych kryteriow moga byc zdecydowanie po stronie starego gtx'a ;) nie wnikam w podswiadome widzenie roznicy pomiedzy aa 4 i 8, dx11, ktory nie wiadomo co daje i zuzycie pradu, bo to jak kazde dziecko wie, dziala na korzysc ati ;) fps'y jak widac nie koniecznie ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

[szczerze mowiac zwisa mi to ile w srodku bedzie siedzialo rdzeni

Jesteś ignorantem? TDP 300W, wszelkie wady multigpu jak mikroprzycięcia, które psują komfort gry też Ci zwisają? :blink:

 

- wydajnosc jest podobna albo lepsza na 295gtx, ktorego przeciez tez mozna zlaczyc dodatkowo w sli (fakt, przy sli vs crossfire widac juz wyrazna przewage ati).

Akurat opierając się na tych wstępnych wynikach to jest to stwierdzenie bardzo subiektywne i nie do końca prawdziwe.

A co do DX11 to jest to jak najbardziej konkretne zaleta. Mało mnie obchodzi ile gier będzie to wykorzystywać na stracie. Karty za ~1300zł nie kupuje się na kilka miesięcy więc pakowanie kasy w starą technologie za wyższą cenę oraz porównywalną wydajność jest nielogiczne.

wnikam w podswiadome widzenie roznicy pomiedzy aa 4 i 8, dx11,

Ale wynikasz w różnicę fps na poziomie kilku %. Pozazdrościć sokolego wzroku :wink:

 

Jednak podkreślić trzeba, że cała ta dyskusja to nadal spekulacje opierające się na wstępnych wynikach wydajności, a jak to wszystko wyjdzie praniu to się przekonamy niebawem.

Edytowane przez trymek

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jesteś ignorantem? TDP 300W, wszelkie wady multigpu jak mikroprzycięcia, które psują komfort gry też Ci zwisają? :blink:

Szczerze? Po prostu nie wiedzialem, ze na multi gpu tnie ;) ale dzieki za ostrzezenie bo chcialem czekac na x2 ;D

Akurat opierając się na tych wstępnych wynikach to jest to stwierdzenie bardzo subiektywne i nie do końca prawdziwe.

Nie, to matrix, ze przy 1920x1200 (Anizo x8, AA x4) gtx jest o 40% procent szybszy w takim UT3 :mur:

Ale wynikasz w różnicę fps na poziomie kilku %. Pozazdrościć sokolego wzroku :wink:

tak samo sokoli wzrok trzeba miec, zeby zauwazyc roznice w grze miedzy srednim a maksymalnym anizo i aa ;] a fps im wiecej tym lepiej - tak bylo, jest i bedzie xD o ile w tym momencie roznica 40% nie gra roli, to przy bardziej wymagajacych tytulach, te 40% znaczaco wplynie na plynnosc

 

I prosze.. nie tlumaczcie mi, ze sie nie oplaca :D kazdy to wie, ale przy obnizeniu ceny gtx'a, pod wzgledem samej wydajnosci karta jest konkurencyjna

Edytowane przez kkNd!

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

eot bo to nie ma sensu :P to tylko moje zdanie i nikt wam nie broni miec innego ;) ja u siebie przy 24 calach i 1920x1200 widze marginalna wrecz roznice i w UT3 wole miec 130 fps z AA x4 na gtx'ie, niz 80 na 5870 z AA x8

 

Na 22" ekranie o rozdzielczości 1680x1050 też widać.

no tutaj faktycznie moze byc to wyrazniej widac, bo to dziwna rozdzielczosc :P no offence, ale najbardziej mi to przypomina ekrany 4:3 19 calowe i rozdzielczosc 1280x1024... kazdy kto siedzial jakis czas na 17tce z normalna plamka wie o co chodzi :P

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeżeli kupujesz kartę która pozwala grać z wszystkim na max to po kiego masz ograniczać AA i AF? Co do rozdzielczości to większość ograniczy się do full HD ale najdroższe karty graficzne często kupowane są także do gry na dużych TV o rozdzielczości 2560x1600, bo jeżeli kogoś stać na kartę za półtora tysiaczka to i na taki TV będzie miał kasę.

bo jeżeli kogoś stać na kartę za półtora tysiaczka to i na taki TV będzie miał kasę

Całkowicie mylne, wyssane z palca założenie. Wielu userów ma standardowe monitory i oczekuje płynnego obrazu w natywnej rozdzielczości. Granie na TV jest mimo wszystko u nas żadkością.... Malo kogo stac na złożenie drogiego blaszaka i zakup jeszcze TV do grania.....

 

Ja od nowej karty graficznej oczekuję, aby miała taką wydajność , która pozwoli mi grać ze wszystkimi wodotryskami na maxa, z aa minimum 4x i Anizo 16 we wszystkie dostępne tytuły w rozdzielczościach od 1280x1024 (większość LCD) poprzez 1680×1050 (1600x1200) skończywszy na 1920×1080. Jeżeli w chwili premiery najwydajniejsza karta graficzna miała by problemy z zapewnieniem progu płynności w natywnej rozdzielczości w tytułach obecnie dostępnych na rynku - to byłby to GNIOT - a nie żaden rewolucyjny wynalazek. Płynność to 30-60FPS zależnie od tytułu, z preferencją 40+ do 60.... I mówimy tu oczywiście nie o średnim a o minimalnym FPS....

 

Taka jest prawda a prawda jest tylko jedna. Przynajmniej w kategorii Wydajność.

 

Kategoria cena/wydajność to już zupełnie inna bajka.

 

I na koniec pytanie zasadnicze - czy nowa karta ATI HD5870 zapewni minimalny FPS na poziomie 30-60FPS we wszystkich obecnych tytułach w trybie miłym dla oczu? Czekam na niezależne testy.....

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

ATI wyeliminowało problem mikroprzycięć ale na NV nadal one występują!

Nie rozwiązało, ale zmniejszyło. Nie wiemy jak będzie na 5870x2 ale na 4870x2 mniejszy lecz wciąż występuje. NVidia zawsze miała mniejsze problemy z microstotteringiem, ale teraz chyba ma większe bo nic nie zrobiła w tym temacie.

 

Całkowicie mylne, wyssane z palca założenie. Wielu userów ma standardowe monitory i oczekuje płynnego obrazu w natywnej rozdzielczości. Granie na TV jest mimo wszystko u nas żadkością.... Malo kogo stac na złożenie drogiego blaszaka i zakup jeszcze TV do grania.....

No i co ja napisałem? Że większość ograniczy się do mniejszych monitorów. Ale jeżeli wydajesz 1500 na kartę to raczej stać się na dobry TV? Czy nie? Nie znaczy to, ze większość tych kart trafi do takich użytkowników, ale sporo tak.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ale jeżeli wydajesz 1500 na kartę to raczej stać się na dobry TV? Czy nie? Nie znaczy to, ze większość tych kart trafi do takich użytkowników, ale sporo tak.

Ale do czego dazysz, bo niezbyt rozumiem przekaz ;) widziales kiedys telewizor z wieksza rozdzielczoscia niz full hd? Bo ja nie... Nawet jezeli ktos wydaje po 20k na tv, to ma 1920x1080 ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

ATI wyeliminowało problem mikroprzycięć ale na NV nadal one występują!

Srutu tutu majtki z drutu :lol2: , na nv i ati są i będą. Bo nawet na pojedynczym gpu zdarzają się , wszystko uzależnione od konkretnej gry i dopracowania sterownika. Edytowane przez sideband

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No i co ja napisałem? Że większość ograniczy się do mniejszych monitorów. Ale jeżeli wydajesz 1500 na kartę to raczej stać się na dobry TV? Czy nie? Nie znaczy to, ze większość tych kart trafi do takich użytkowników, ale sporo tak.

Moze i stac ale np. ja nie widze sensu zakupu dobrego (tudziez duzego) TV do gier.... Nie wyobrazam sobie siedziec przed kompem przy ogromnym wyswietlatorze ;)

Edytowane przez KUBA TM

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Moze i stac ale np. ja nie widze sensu zakupu dobrego (tudziez duzego) TV do gier.... Nie wyobrazam sobie siedziec przed kompem przy ogromnym wyswietlatorze ;)

Czekaj , a nie ma przedluzaczy do kabli? Co to za problem , mozesz siedziec 3 metry dalej mjac 50 cali...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gość
Ten temat został zamknięty. Brak możliwości dodania odpowiedzi.



×
×
  • Dodaj nową pozycję...