maxymili Opublikowano 15 Września 2009 Zgłoś Opublikowano 15 Września 2009 Dlatego w oficjalnych testach będzie jeszcze słabiej , w grach gdzie ati sobie dobrze radziło będzie ok , tam gdzie było kiepsko nadal będzie kiepsko. Także przypuszczalnie będzie te 20% szybciej od gtx285.Jak sam pisałeś ATI ma zawsze na początku niedopracowane sterowniki. 285 ma już chyba dopięte? Poza tym 20% więcej od karty do której żadna jednordzeniowa ATI nie miała do tej pory podejścia to chyba dobrze jest :) z uwagi na cisze po stronie konkurencji. Z czeskich testów wynika 37% przewagi nad 285 w najbardziej interesującym Ventage X i podejrzewam, że taka lub zbliżona będzie średnia różnica w Full HD. Nie zmienia to faktu, że w niektórych grach przewaga będzie mała ale to nadal przewaga. Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość marantz5003 Opublikowano 15 Września 2009 Zgłoś Opublikowano 15 Września 2009 moze mi ktoś powiedziec czemu nvidia opóźnia premiere swoich kart? hd5870-te karty dx11 powinny być jeszcze szybsze w dx11:) są jakieś informacje kiedy będzie wersja x2? Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
maxymili Opublikowano 15 Września 2009 Zgłoś Opublikowano 15 Września 2009 (edytowane) Nie ma czym sie podniecac imho... gtx295 ciagle w wiekszosci gier wypada lepiej =] Wychodzi na to, ze nvidia spokojnie moze powalczyc z ati jedynie obnizajac cene gtx'a ;)295 to microstuttering, nierówna wydajność jak to na dwu rdzeniówkach większe zużycie prądu, brak DX 10.1 i DX 11. Do tego z tego co ja widziałem to większość gier jest na korzyść jedno rdzeniowego 5870 więc? A nie zapominajmy, że wyjdzie jeszcze 5870x2. moze mi ktoś powiedziec czemu nvidia opóźnia premiere swoich kart? hd5870-te karty dx11 powinny być jeszcze szybsze w dx11:) są jakieś informacje kiedy będzie wersja x2?Wszyskie rdzenie 40nm będzie produkować korporacja TSMC. nVidia nie ma takich relacji z TSMC jakie ma ATI które współpracuje z nimi już kilka lat. NVidia dopiero zaczyna. Dostali po prostu sankcję na nowy proces technologiczny 40nm pewnie na życzenie ATI. Taki wyraz lojalności. Być może TSMC ma zamiar przejąć całą produkcję procesorów AMD i dlatego tak się chce ustawić po stronie ATI? Edytowane 15 Września 2009 przez maxymili Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
czullo Opublikowano 15 Września 2009 Zgłoś Opublikowano 15 Września 2009 Wszyskie rdzenie 40nm będzie produkować korporacja TSMC. nVidia nie ma takich relacji z TSMC jakie ma ATI które współpracuje z nimi już kilka lat. NVidia dopiero zaczyna. Dostali po prostu sankcję na nowy proces technologiczny 40nm pewnie na życzenie ATI. Taki wyraz lojalności. Być może TSMC ma zamiar przejąć całą produkcję procesorów AMD i dlatego tak się chce ustawić po stronie ATI? AMD ma wlasna spolke ktora produkuje GPU dla siebie i firm trzecich, wiec TSMC nie przejmie w najblizszej przyszlosci produkcji procesorow AMD. Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
kkNd! Opublikowano 15 Września 2009 Zgłoś Opublikowano 15 Września 2009 Do tego z tego co ja widziałem to większość gier jest na korzyść jedno rdzeniowego 5870 więc?Powiedz mi ile osob skorzysta na przewadze w rozdzielczosci 2560x1600? Dla wiekszosci liczy sie max 1920x1200. Do tego aniso x4 i aa x8 imho jest w zupelnosci wystarczajace. Przy takich kryteriach wyniki sa w praktycznie kazdej grze na korzysc starego gtx'a. W CoD czy UT to ponad 30 fps roznicy. Battleforge 47:50 CoH 103:112 Call of duty 112:144 Crysis: Warhead 43:48 DMC 99:139 Far Cry 2: 51:63 L4D 152:157 Prey 217:225 Unreal Tournament 3 91:132 Wolfenstein 104:126 Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
maxymili Opublikowano 15 Września 2009 Zgłoś Opublikowano 15 Września 2009 (edytowane) Powiedz mi ile osob skorzysta na przewadze w rozdzielczosci 2560x1600? Dla wiekszosci liczy sie max 1920x1200. Do tego aniso x4 i aa x8 imho jest w zupelnosci wystarczajace. Przy takich kryteriach wyniki sa w praktycznie kazdej grze na korzysc starego gtx'a. W CoD czy UT to ponad 30 fps roznicy. Battleforge 47:50 CoH 103:112 Call of duty 112:144 Crysis: Warhead 43:48 DMC 99:139 Far Cry 2: 51:63 L4D 152:157 Prey 217:225 Unreal Tournament 3 91:132 Wolfenstein 104:126 Ale sobie wybrałeś kryteria :) Jeżeli kupujesz kartę która pozwala grać z wszystkim na max to po kiego masz ograniczać AA i AF? Co do rozdzielczości to większość ograniczy się do full HD ale najdroższe karty graficzne często kupowane są także do gry na dużych TV o rozdzielczości 2560x1600, bo jeżeli kogoś stać na kartę za półtora tysiaczka to i na taki TV będzie miał kasę. AMD ma wlasna spolke ktora produkuje GPU dla siebie i firm trzecich, wiec TSMC nie przejmie w najblizszej przyszlosci produkcji procesorow AMD.A czy oni wg Ciebie myślą tylko o tym co się stanie dziś i jutro? Na pewno chcieli by przejąc całą produkcje AMD a do tego konieczne jest miedzy innymi zaufanie ze strony klienta. Kto kupi taką usługę, jeżeli nie będzie pewny lojalności? Edytowane 15 Września 2009 przez maxymili Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
czullo Opublikowano 15 Września 2009 Zgłoś Opublikowano 15 Września 2009 A czy oni wg Ciebie myślą tylko o tym co się stanie dziś i jutro? Na pewno chcieli by przejąc całą produkcje AMD a do tego konieczne jest miedzy innymi zaufanie ze strony klienta. Kto kupi taką usługę, jeżeli nie będzie pewny lojalności? A czy myslisz ze AMD wpadowalo kupe kasy we wlasna spolke, fabryki po to zeby teraz zrezygnowac ? Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
kkNd! Opublikowano 15 Września 2009 Zgłoś Opublikowano 15 Września 2009 Wybralem kryteria praktycznosci ;) zeby dostrzec roznice pomiedzy tymi poziomami anizo i aa, czesto trzeba zrobic zrzut ekranu i powiekszyc obraz :D Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Burdoror Opublikowano 15 Września 2009 Zgłoś Opublikowano 15 Września 2009 (edytowane) Oprocz samych FPS-ow sa jeszcze inne kryteria oceny kart, takie jak zuzycie energii czy stosunek wydajnosc/cena. W obu przypadklach ATI jak na razie krolowala. Nie samym fps-em czlowiek zyje :) Poczekajmy na rzetelne testy. We’ve learned that the current TDP for X2 is 376W and that the company is working on this issue, as apparently they will have to slow down the GPUs down by quite a lot to get rid of the heat. Zrodlo: Fudzilla Tak... lepiej poczekac na testy ;) Edytowane 15 Września 2009 przez Burdoror Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
maxymili Opublikowano 15 Września 2009 Zgłoś Opublikowano 15 Września 2009 Wybralem kryteria praktycznosci ;) zeby dostrzec roznice pomiedzy tymi poziomami anizo i aa, czesto trzeba zrobic zrzut ekranu i powiekszyc obraz :DChoćby nic nie było widać, skoro mamy 120 klatek, albo w ogóle powyżej 40 klatek to czemu mamy obniżać jakość obrazu? Nawet jeżeli świadomie tego nie widzisz to podświadomość odczuwa różnicę w jakości i wrażenie pozostaje. @czullo - dobra, ty masz rację, a ja spokój ;) może być? Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Kyle Opublikowano 15 Września 2009 Zgłoś Opublikowano 15 Września 2009 Dla wiekszosci liczy sie max 1920x1200. Do tego aniso x4 i aa x8 imho jest w zupelnosci wystarczajace.Nie jest wystarczające co doskonale widać na bardziej złożonych geometrycznie obiektach (kwestia AA) czy bardziej oddalonych płaszczyznach (kwestia AF). AA x4 i AFx8 jest jakościowo taki sobie. Wybralem kryteria praktycznosci ;) zeby dostrzec roznice pomiedzy tymi poziomami anizo i aa, czesto trzeba zrobic zrzut ekranu i powiekszyc obraz :DNonsens ... w pewnych sytuacjach AAx4 potrafi porazić swoją niedoskonałością. Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
kkNd! Opublikowano 15 Września 2009 Zgłoś Opublikowano 15 Września 2009 od poczatku chodzilo mi tylko i wylacznie o fps'y, a te przy zastosowaniu pewnych kryteriow moga byc zdecydowanie po stronie starego gtx'a ;) nie wnikam w podswiadome widzenie roznicy pomiedzy aa 4 i 8, dx11, ktory nie wiadomo co daje i zuzycie pradu, bo to jak kazde dziecko wie, dziala na korzysc ati ;) fps'y jak widac nie koniecznie ;) Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
trymek Opublikowano 15 Września 2009 Zgłoś Opublikowano 15 Września 2009 (edytowane) [szczerze mowiac zwisa mi to ile w srodku bedzie siedzialo rdzeniJesteś ignorantem? TDP 300W, wszelkie wady multigpu jak mikroprzycięcia, które psują komfort gry też Ci zwisają? :blink: - wydajnosc jest podobna albo lepsza na 295gtx, ktorego przeciez tez mozna zlaczyc dodatkowo w sli (fakt, przy sli vs crossfire widac juz wyrazna przewage ati).Akurat opierając się na tych wstępnych wynikach to jest to stwierdzenie bardzo subiektywne i nie do końca prawdziwe. A co do DX11 to jest to jak najbardziej konkretne zaleta. Mało mnie obchodzi ile gier będzie to wykorzystywać na stracie. Karty za ~1300zł nie kupuje się na kilka miesięcy więc pakowanie kasy w starą technologie za wyższą cenę oraz porównywalną wydajność jest nielogiczne. wnikam w podswiadome widzenie roznicy pomiedzy aa 4 i 8, dx11,Ale wynikasz w różnicę fps na poziomie kilku %. Pozazdrościć sokolego wzroku :wink: Jednak podkreślić trzeba, że cała ta dyskusja to nadal spekulacje opierające się na wstępnych wynikach wydajności, a jak to wszystko wyjdzie praniu to się przekonamy niebawem. Edytowane 15 Września 2009 przez trymek Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
kkNd! Opublikowano 15 Września 2009 Zgłoś Opublikowano 15 Września 2009 (edytowane) Jesteś ignorantem? TDP 300W, wszelkie wady multigpu jak mikroprzycięcia, które psują komfort gry też Ci zwisają? :blink:Szczerze? Po prostu nie wiedzialem, ze na multi gpu tnie ;) ale dzieki za ostrzezenie bo chcialem czekac na x2 ;D Akurat opierając się na tych wstępnych wynikach to jest to stwierdzenie bardzo subiektywne i nie do końca prawdziwe.Nie, to matrix, ze przy 1920x1200 (Anizo x8, AA x4) gtx jest o 40% procent szybszy w takim UT3 :mur: Ale wynikasz w różnicę fps na poziomie kilku %. Pozazdrościć sokolego wzroku :wink:tak samo sokoli wzrok trzeba miec, zeby zauwazyc roznice w grze miedzy srednim a maksymalnym anizo i aa ;] a fps im wiecej tym lepiej - tak bylo, jest i bedzie xD o ile w tym momencie roznica 40% nie gra roli, to przy bardziej wymagajacych tytulach, te 40% znaczaco wplynie na plynnosc I prosze.. nie tlumaczcie mi, ze sie nie oplaca :D kazdy to wie, ale przy obnizeniu ceny gtx'a, pod wzgledem samej wydajnosci karta jest konkurencyjna Edytowane 15 Września 2009 przez kkNd! Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Michael86 Opublikowano 15 Września 2009 Zgłoś Opublikowano 15 Września 2009 przy dużych 32" ekranach widać różnice między AAx4 i AAx8.....więc rozdzielczość i wodotryski są istotne i tu ATI na przewagę.... Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Kyle Opublikowano 15 Września 2009 Zgłoś Opublikowano 15 Września 2009 przy dużych 32" ekranach widać różnice między AAx4 i AAx8.....więc rozdzielczość i wodotryski są istotne i tu ATI na przewagę....Na 22" ekranie o rozdzielczości 1680x1050 też widać. Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
panzar Opublikowano 15 Września 2009 Zgłoś Opublikowano 15 Września 2009 Szczerze? Po prostu nie wiedzialem, ze na multi gpu tnie ;) ale dzieki za ostrzezenie bo chcialem czekac na x2 ;Dto było dawno temu i nie prawda... problemy rozwiązane bez względu czy cf czy x2 czy cf z x2. Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Michael86 Opublikowano 15 Września 2009 Zgłoś Opublikowano 15 Września 2009 to było dawno temu i nie prawda... problemy rozwiązane bez względu czy cf czy x2 czy cf z x2. ATI wyeliminowało problem mikroprzycięć ale na NV nadal one występują! Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
kkNd! Opublikowano 15 Września 2009 Zgłoś Opublikowano 15 Września 2009 eot bo to nie ma sensu :P to tylko moje zdanie i nikt wam nie broni miec innego ;) ja u siebie przy 24 calach i 1920x1200 widze marginalna wrecz roznice i w UT3 wole miec 130 fps z AA x4 na gtx'ie, niz 80 na 5870 z AA x8 Na 22" ekranie o rozdzielczości 1680x1050 też widać.no tutaj faktycznie moze byc to wyrazniej widac, bo to dziwna rozdzielczosc :P no offence, ale najbardziej mi to przypomina ekrany 4:3 19 calowe i rozdzielczosc 1280x1024... kazdy kto siedzial jakis czas na 17tce z normalna plamka wie o co chodzi :P Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
TomaszPaweł Opublikowano 15 Września 2009 Zgłoś Opublikowano 15 Września 2009 Jeżeli kupujesz kartę która pozwala grać z wszystkim na max to po kiego masz ograniczać AA i AF? Co do rozdzielczości to większość ograniczy się do full HD ale najdroższe karty graficzne często kupowane są także do gry na dużych TV o rozdzielczości 2560x1600, bo jeżeli kogoś stać na kartę za półtora tysiaczka to i na taki TV będzie miał kasę. bo jeżeli kogoś stać na kartę za półtora tysiaczka to i na taki TV będzie miał kasę Całkowicie mylne, wyssane z palca założenie. Wielu userów ma standardowe monitory i oczekuje płynnego obrazu w natywnej rozdzielczości. Granie na TV jest mimo wszystko u nas żadkością.... Malo kogo stac na złożenie drogiego blaszaka i zakup jeszcze TV do grania..... Ja od nowej karty graficznej oczekuję, aby miała taką wydajność , która pozwoli mi grać ze wszystkimi wodotryskami na maxa, z aa minimum 4x i Anizo 16 we wszystkie dostępne tytuły w rozdzielczościach od 1280x1024 (większość LCD) poprzez 1680×1050 (1600x1200) skończywszy na 1920×1080. Jeżeli w chwili premiery najwydajniejsza karta graficzna miała by problemy z zapewnieniem progu płynności w natywnej rozdzielczości w tytułach obecnie dostępnych na rynku - to byłby to GNIOT - a nie żaden rewolucyjny wynalazek. Płynność to 30-60FPS zależnie od tytułu, z preferencją 40+ do 60.... I mówimy tu oczywiście nie o średnim a o minimalnym FPS.... Taka jest prawda a prawda jest tylko jedna. Przynajmniej w kategorii Wydajność. Kategoria cena/wydajność to już zupełnie inna bajka. I na koniec pytanie zasadnicze - czy nowa karta ATI HD5870 zapewni minimalny FPS na poziomie 30-60FPS we wszystkich obecnych tytułach w trybie miłym dla oczu? Czekam na niezależne testy..... Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość Firekage Opublikowano 15 Września 2009 Zgłoś Opublikowano 15 Września 2009 Dodaj do tego jeszcze "dx11"... Ciekawi mnie wydajnosc pod DX10 w Crysisie i czy serio bedzie te "min 40" fps. Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
maxymili Opublikowano 16 Września 2009 Zgłoś Opublikowano 16 Września 2009 ATI wyeliminowało problem mikroprzycięć ale na NV nadal one występują!Nie rozwiązało, ale zmniejszyło. Nie wiemy jak będzie na 5870x2 ale na 4870x2 mniejszy lecz wciąż występuje. NVidia zawsze miała mniejsze problemy z microstotteringiem, ale teraz chyba ma większe bo nic nie zrobiła w tym temacie. Całkowicie mylne, wyssane z palca założenie. Wielu userów ma standardowe monitory i oczekuje płynnego obrazu w natywnej rozdzielczości. Granie na TV jest mimo wszystko u nas żadkością.... Malo kogo stac na złożenie drogiego blaszaka i zakup jeszcze TV do grania.....No i co ja napisałem? Że większość ograniczy się do mniejszych monitorów. Ale jeżeli wydajesz 1500 na kartę to raczej stać się na dobry TV? Czy nie? Nie znaczy to, ze większość tych kart trafi do takich użytkowników, ale sporo tak. Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
kkNd! Opublikowano 16 Września 2009 Zgłoś Opublikowano 16 Września 2009 Ale jeżeli wydajesz 1500 na kartę to raczej stać się na dobry TV? Czy nie? Nie znaczy to, ze większość tych kart trafi do takich użytkowników, ale sporo tak.Ale do czego dazysz, bo niezbyt rozumiem przekaz ;) widziales kiedys telewizor z wieksza rozdzielczoscia niz full hd? Bo ja nie... Nawet jezeli ktos wydaje po 20k na tv, to ma 1920x1080 ;) Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
sideband Opublikowano 16 Września 2009 Zgłoś Opublikowano 16 Września 2009 (edytowane) ATI wyeliminowało problem mikroprzycięć ale na NV nadal one występują!Srutu tutu majtki z drutu :lol2: , na nv i ati są i będą. Bo nawet na pojedynczym gpu zdarzają się , wszystko uzależnione od konkretnej gry i dopracowania sterownika. Edytowane 16 Września 2009 przez sideband Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
KUBA TM Opublikowano 16 Września 2009 Zgłoś Opublikowano 16 Września 2009 (edytowane) No i co ja napisałem? Że większość ograniczy się do mniejszych monitorów. Ale jeżeli wydajesz 1500 na kartę to raczej stać się na dobry TV? Czy nie? Nie znaczy to, ze większość tych kart trafi do takich użytkowników, ale sporo tak. Moze i stac ale np. ja nie widze sensu zakupu dobrego (tudziez duzego) TV do gier.... Nie wyobrazam sobie siedziec przed kompem przy ogromnym wyswietlatorze ;) Edytowane 16 Września 2009 przez KUBA TM Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Granat Opublikowano 16 Września 2009 Zgłoś Opublikowano 16 Września 2009 :wink: Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość Firekage Opublikowano 16 Września 2009 Zgłoś Opublikowano 16 Września 2009 Moze i stac ale np. ja nie widze sensu zakupu dobrego (tudziez duzego) TV do gier.... Nie wyobrazam sobie siedziec przed kompem przy ogromnym wyswietlatorze ;)Czekaj , a nie ma przedluzaczy do kabli? Co to za problem , mozesz siedziec 3 metry dalej mjac 50 cali... Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
ArturMaly Opublikowano 16 Września 2009 Zgłoś Opublikowano 16 Września 2009 Albo można siedzieć 10cm od 24' ale gdzie tutaj rozsądek? I jak rozciągnąć biurko na 3metry żeby położyć myszkę i klawiaturę? Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
KUBA TM Opublikowano 16 Września 2009 Zgłoś Opublikowano 16 Września 2009 Czekaj , a nie ma przedluzaczy do kabli? Co to za problem , mozesz siedziec 3 metry dalej mjac 50 cali...Jasne, ze sa ale mi sie nie widzi 'skakanie' z miejsca do miejsca po to zeby sobie zagrac czy tez siedzenie przy duzym TV Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
TomaszPaweł Opublikowano 16 Września 2009 Zgłoś Opublikowano 16 Września 2009 :wink: Rewelajca! Choć osobiście uwazam że G80 i GT200 są równie udane i rewelacyjne. Ale jako reklamówka HD5870 to jest świetne!!! Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...