Skocz do zawartości
cavarr

Ati Radeon Hd 4870 X2 /4850 X2

Rekomendowane odpowiedzi

Nie, przecież wymiany kart topowych co 3miechy maja mało synsu samo w sobie. Więc poddawanie wątpliwości wymianę karty gtx na x2 i doszukiwanie się w tej wymianie sensu jest samo w sobie bezsensu. Podobnie bvyło z Twoja wymiana karty gx2 na gtx. Tyle tylko że w tamtym przypadku sens wymiany był jeszcze mniejszy.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

:) jak bym patrzyl czy jest sens wymainy czagokolwiek to bym sobie laptopa kupil.

 

Ale w tym przypadku nie ma to sensu. I tak ta karta Crysisa na full w 1920x1200 nie pociagnie.

Edytowane przez Lysyn

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

MIalem tez cf 4850 i niestety wystepowały błędy w renderowaniu grafiki w grach. A na g280 tego nie ma. A jaki sens widzisz w wymianie? Obraz nie bedzie płynniejszy niz na g280 bo czy 60 klatek czy 120 nie ma zadnej roznicy w dzialaniu gry + duzo wiekszy pobór pradu niz na g280.

Dałeś teraz do pieca. Róznica w pierwszej lepszej grze np CoD4 60 a 125, nawet jest róznica miedzy 125 a 250 moze nie jest to widoczne w samym fps ale zwylke jesli karat ma 250 to zadko spada ponizej 125, natomiast jak zazwyczaj jest 125 to spadki ponizej 60 sa juz czeste. Wogóle gry to nie telewizor gdzie do płynnego obrazu wystarczy 25 klatek, a oko i tak nie zauwazy roznicy jak bedzie wiecej, w grze widac wszystko i wiekszy fps zawsze jakos sie przekłada na doznania podczas gry.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jak dla mnie przewaga Ati jest widoczna wyraźnie. Jeśli zaś weźmiemy pod uwagę minimalną różnicę w cenie to chyba nie ma się nad czym zastanawiać.

Pomyślmy przy wyższej cenie:

Problemy na Vista x64 jest ich sporo

Problemy na Vista 32bit też jest pare

A problemy to nie działające tytuły w CF a jest ich sporo seria NFS,COlin Dirt,RS vegas2,Crysis(high ustawienia)na VH jest OK,COD4 ładnie pięknie ale zależy od miejsca testowanego takie wahania w CF że główa boli,Gothic III można jeszcze wymieniać.

Niestety z ceną muszą polecieć niżej niż GTX.Bo stery od czerwca w CF minimalnie poprawiają wydajność.

Edytowane przez Maxforce

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

kurde wiedzialem zeby zostawic crysisa na pozniej :D

 

ze taki offtop walne - w najblizszej przyszlosci wyjda jakies gry dla ktorych warto kupowac takiego potwora? oczywiscie do 1920x1200 ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Pomyślmy przy wyższej cenie:

Problemy na Vista x64 jest ich sporo

Problemy na Vista 32bit też jest pare

A problemy to nie działające tytuły w CF a jest ich sporo seria NFS,COlin Dirt,RS vegas2,

Jak to nie działa? Chodzi chyba o to, że CF nie daje relatywnie wyższej wydajności niż jedna karta? Co to niby za problemy z x64?

Wiesz, konkrety by się przydały , bo ogólnikami to za komuny mówili.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jak to nie działa? Chodzi chyba o to, że CF nie daje relatywnie wyższej wydajności niż jedna karta? Co to niby za problemy z x64?

Wiesz, konkrety by się przydały , bo ogólnikami to za komuny mówili.

Gothic 3 skalowanie nigdy nie działało w X2 czy CF

Crysis detale HIGH dx9 czy DX10 skalowanie zaczyna się dopiero od 1920x1200 poniżej tego wydajność jak na jednej karcie,odziwo w VH ustawieniach jest wszystko OK.

COH DX10 na czystym bez dodatku nie da się wyłączyć Vsync na Vista 64bit na Vista 32 bezproblemowo się wyłącza.

NFS PRO wydajność jednego GPU

Infernal wolniej niż na jednym GPU

Colin Dirt zwalnia na X2 po wypadku odziwo w normalnym CF tego problemu nie ma

RS Vegas 2 wydajność jednego GPU-i to niezależnie czy X2 czy CF normalne.

Call of Duty 4 huśtawka ze skalowaniem jak na rollercoaster raz 10% raz 60%+

znajdzie się jeszcze więcej zapewne,a najważniejsze Crysis,GRID są blokowane przez CPU przy tej karcie chodzi o skalowanie,karta wymaga naprawdę mocnego procesora i dość często 3.5Ghz nie starcza urok CF-SLI.

Jeszscze na dodatek ta cena 559$ to narmalnie przegieli GTX280 kosztuje 420$ :lol2:

Jedyne sensowne rozwiązanie MULTI GPU jeśli chodzi od nich to 4850 i mod i wydajność na sama a cena 240$ taniej.

Edytowane przez Maxforce

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

dla mnie te testy sa jakies powalone na jednych wyglada ze radeon ma bardzo stabilny fps i jest szybszy od GTX-a , te z benchmarka mówia co innego choc tam robine na AMD, ja tam w nic nie wierze czekam na jakies oficjalne testy bo te to mozna o kant [gluteus maximus] potłuc,

mi sie wydaje ze w Crysisie i wogole w wiekszosci gier 4870X2 powinno byc wydajniejsze

post-146613-1218589322_thumb.jpg

Edytowane przez lukaszrobert

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

"Gdybyśmy mieli wybierać pomiędzy GTX 280 a HD 4870 X2, mocno byśmy się wahali. Oba rozwiązania mają swoje zalety i wady. Radeon niewątpliwie jest szybszy... ale tylko w wysokich rozdzielczościach. Posiadacze typowych monitorów (22" lub mniejszych) nie będą w stanie nawet wyświetlić dostatecznie wysokich rozdzielczości, by odczuć moc Radeona. A w niższych trybach graficznych, czyli 1680x1050 i mniej, GeForce jest wydajniejszy. To raz. Dwa, konfiguracje Multi-GPU nie tylko wymagają specjalnych profili, ale mogą być czasami kłopotliwe. I trzy, Radeon jest cholernie prądożerny."

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

"Gdybyśmy mieli wybierać pomiędzy GTX 280 a HD 4870 X2, mocno byśmy się wahali. Oba rozwiązania mają swoje zalety i wady. Radeon niewątpliwie jest szybszy... ale tylko w wysokich rozdzielczościach. Posiadacze typowych monitorów (22" lub mniejszych) nie będą w stanie nawet wyświetlić dostatecznie wysokich rozdzielczości, by odczuć moc Radeona. A w niższych trybach graficznych, czyli 1680x1050 i mniej, GeForce jest wydajniejszy. To raz. Dwa, konfiguracje Multi-GPU nie tylko wymagają specjalnych profili, ale mogą być czasami kłopotliwe. I trzy, Radeon jest cholernie prądożerny."

Zgodzę się. Nie ma wątpliwości co do trudności wyboru między tymi kartami. Prawda jest też taka, że argument prądożerności musieliśmy sobie odpuścić już prawie 2lata temu przy kupnie 88gtx. Trudności z gx2 i wszystkimi 2-procesorowymi kartami istniał i istnieć będzie.

LYSYN jeżeli szukasz argumentu by nie zmieniać karty to jak najbardziej jest on dobry. Uwierz mi, że wątpliwości będą przy zmianie jak i przy braku zmiany. Ja sprzedając kartę miałem wątpliwości i po jej sprzedaniu miałem ich jeszcze więcej. Zapewne nie raz po kupnie x2 będę miał ich trochę(wątpliwości) ale one są nieodzowną częścią naszej "choroby".

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Niestety masz racje. To jest choroba. Ale tez firmy takie jak NVIDIA robia sobie jaka z uzytkowników wypuszczając karte GX2 a za 3 miesiace GTX 280. ATI przynajmniej troche czekało z wydaniem nowych kart.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jednak trzeba przyznac ze narazie ATI jest blizej odnalezienia zlotego srodka.Jesli komus wystarcza zwykle rozdzielczosci pokroju 1024x768/1280x1024 wystarczy mu 800zl i pojedyncza karta HD 4870 , jezeli ktos jest entuzjasta kosmicznych rozdzielczosci, HD 4870X2 za 1400zl jest bardzo dobra oferta.

nVidia obnizkami cen pokazala tak naprawde ze chciala ukryc jak najwiecej asow w rekawie zeby zarobic odpowiednia ilosc kasy na GTX-ach, ale tutaj nie wyszlo, musieli zleciec z bandyckich cen. A jak juz sobie przypomne ceny GF 8800 po 2 tys zl to juz mam kompletny obraz jak nVidia stara sie wiecej zyskac , niz dac ( co w biznesie jest norma, ale tutaj marketing nv rozwinal sie perfekcyjnie, zwlaszcza przekrety miedzy seriami 8800 a 9800 ). Teraz probuje sie ratowac PhysX/Cuda ale bez wsparcia tworcow oprogramowania raczej nie bedzie to silny argument. Czyli skonczyly sie czasy spokojnego dojenia dla tej firmy, dobrze mysle ?

Edytowane przez satou

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

3071418[/snapback]

Jednak trzeba przyznac ze narazie ATI jest blizej odnalezienia zlotego srodka.Jesli komus wystarcza zwykle rozdzielczosci pokroju 1024x768/1280x1024 wystarczy mu 800zl i pojedyncza karta HD 4870 , jezeli ktos jest entuzjasta kosmicznych rozdzielczosci, HD 4870X2 za 1400zl jest bardzo dobra oferta.
i w 1680x1050 będzie dobrze jak proc będzie powyżej 3.5Ghz

 

dla mnie te testy sa jakies powalone na jednych wyglada ze radeon ma bardzo stabilny fps i jest szybszy od GTX-a , te z benchmarka mówia co innego choc tam robine na AMD, ja tam w nic nie wierze czekam na jakies oficjalne testy bo te to mozna o kant [gluteus maximus] potłuc,

mi sie wydaje ze w Crysisie i wogole w wiekszosci gier 4870X2 powinno byc wydajniejsze

post-146613-1218589322_thumb.jpg

i widzisz na wykresach jak jest zablokowana przez procesor karta różnica 1FPS pomiędzy rozdzielczościami.

Następni z platformą nie nadającą się do MultiGPU

AMD Phenom 8650 2200MHz @ 2900MHz

Edytowane przez Maxforce

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

test porażka wybrali platformę do OC gdzie proc max 3Ghz a tu bez 3.5Ghz nie ma podchodzić dlatego takie wyniki w niższych rozdzielczościach.

 

i w 1680x1050 będzie dobrze jak proc będzie powyżej 3.5Ghz

masz na to jakies dowody ? no przepraszam, to nie czasy 3DFX gdzie silny procesor odgrywal najwazniejsza role w pracy akceleratora. Dzisiejsze GPU nie bez powodu wziely swoja nazwe, sa to jednostki ktore doskonale radza sobie samodzielnie z wyswietlaniem grafiki skutecznie odciazajac CPU. A moze sie myle ?

Mozesz to jakos udowodnic ? mam na mysli sytuacje gdy korzystamy z procesora o taktowaniu naprzyklad 2.8Ghz a 3.5Ghz, czy sa jakies znaczace roznice w testach ktore wplynely na wydajnosc tych kart graficznych i czy rzeczywiscie wykorzystanie procesora odgrywa taka istotna role.

Pytam bo znowy mam wrazenie ze jest tworzony kolejny mit. Z procesorem o nizszym taktowaniu niz 3.5Ghz nie mozna wykorzystac mozliwosci karty graficznej ? Ja rozumiem gdybysmy mowili o znaczacych roznicach jak architektura np. Pentium IV i Core 2 , ale roznica 700Mhz ?

 

Pytam bo jesli piszesz takie rzeczy to musisz miec na to jakies dowody na poparcie tej tezy, prawda ?

Edytowane przez satou

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

masz na to jakies dowody ? no przepraszam, to nie czasy 3DFX gdzie silny procesor odgrywal najwazniejsza role w pracy akceleratora. Dzisiejsze GPU nie bez powodu wziely swoja nazwe, sa to jednostki ktore doskonale radza sobie samodzielnie z wyswietlaniem grafiki skutecznie odciazajac CPU. A moze sie myle ?

Mozesz to jakos udowodnic ? mam na mysli sytuacje gdy korzystamy z procesora o taktowaniu naprzyklad 2.8Ghz a 3.5Ghz, czy sa jakies znaczace roznice w testach i czy one rzeczywiscie wskazuja na wykorzystanie procesora.

Tak ma ale może dzisiaj sam sobie o tym poczytasz.

Nie czasy 3DFx ale multiGPU a tu jest gorzej niż za czasów 3Dfx a CF o 300-400Mhz więcej wymaga od procka niż SLI.

Dołączona grafika

Dołączona grafika

Przy 4870X2 jest jeszcze gorzej bo taktowanie kart większe i jeszcze więcej wymagają od prcesora.

Proc 3.5Ghz e6600 4870X2

1024: 35,3

1280: 33,4

1600: 30

4Ghz e8400 4850CF

1024=50.98

1280=39.97

1600=34.3

Grafy po OC

Edytowane przez Maxforce

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

TU jest test 4870X2 na intelu i amd ;)

Dziekuje bardzo, ale kolejne testy które nic nie mówia, po pierwsze w tescie na platformie AMD w Crysisie w benchmarku jakoby gtx280 dominuje, w grze sytuacja jest odwrotna i to GTX spada na sam dół.

Jesli chodzi o platforme z Intelem to tez nie napisali czy to sa wyniki z gry czy tylko benchmarka wiec dalej nie wiele wiadomo, ja dalej zostaje przy swoim ze Radosław rozłozy GTX w Crysisie, przeciez mówil ze 2x HD4870X2 jest wydajniensze niz 3-way SLI 280GTX.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dziekuje bardzo, ale kolejne testy które nic nie mówia, po pierwsze w tescie na platformie AMD w Crysisie w benchmarku jakoby gtx280 dominuje, w grze sytuacja jest odwrotna i to GTX spada na sam dół.

Jesli chodzi o platforme z Intelem to tez nie napisali czy to sa wyniki z gry czy tylko benchmarka wiec dalej nie wiele wiadomo, ja dalej zostaje przy swoim ze Radosław rozłozy GTX w Crysisie, przeciez mówil ze 2x HD4870X2 jest wydajniensze niz 3-way SLI 280GTX.

Jak procesor będzie powyżej 3.5Ghz dopiero wtedy.

2x HD4870X2 nie skaluje się praktycznie wcale już.

http://www.techreport.com/articles.x/15293/8

Edytowane przez Maxforce

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dołączona grafika

Dołączona grafika

Jesli te kilka slupkow to Twoim zdaniem zelazny dowod na to ze multi GPU nie poradzi sobie ze wspolpraca z CPU o taktowaniu nizszym niz 3.5Ghz , to winszuje.

Maxforce, naprawde , nic osobistego, ale poprostu twoje zamilowanie do wykresow przeslania Ci trzezwe spojrzenie na swiat.

Przypuscmy ze mam na skladzie procesor Intel Core 2 Duo E8200, 2.66GHz . Jezeli doloze do niego HD 4870X2 jestem pewny ze roznice w wydajnosci ( zapewne rzedu kilku % ) miedzy innym procesorem, np Intel Core 2 Duo E8500 3.5GHz bedzie mozna zwalic predzej na uzyte oprogramowanie, sterownik lub niepewnosc pomiaru, niz faktyczna zaleznosc GPU od CPU. A to jest roznica, bo przez jedna zle napisana gre w ktorej procesor moze rzeczywiscie byc niepotrzebnie obciazany , nie powinnismy osadzac GPU i jego wydajnosci.

W DX 9.0 moc obliczeniowa CPU potrzebna do obslugi bibliotek graficznych moze siegac 40% cykli procesora, ale dzieki DX 10 udalo sie zmniejszyc ten narzut do 20%.

Wogole wsparcie DX 10 przynosi szereg usprawnien odciazajacych CPU z zadan zwiazanych z generowaniem grafiki ( a nie nowymi efektami graficznymi jak sie niektorym wydaje ).

 

Tak wiec rola CPU ma coraz mniejsze znaczenie. I uwazam ze Maxforce wysuwasz bledne wnioski i wprowadzasz innych niepotrzebnie w blad.

Edytowane przez satou

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

nie wydaje mi sie zeby miało coraz mniejsze znaczenie, po mimo PsyhX i innych rozwiazan w architektórze GPU( poprostu karta jest bardziej dociazona) co wpływa na spadek fps, trzeba jakos to zrównowazyc, nawet jesli GPU przejmie czesc obliczen na siebie, duzy zegar CPU poprawia wydajnosc, a w CrosFire to juz koniecznosc

i karty juz od dawna dusza sie na 3GHz a co dopiero w CF, nie wiem dlaczego uwazasz ze wpływ CPU na wydajnosc GPU jest minimalna, własnie głupi procesor potrafi zabic karte o 50%-60% wiem to z doswiadczenia, procki sa coraz bardziej wydajne ale przeciez karty tez nie stoja w miejscu, i tam gdzie kiedys wystarczyło 3GHz (w wypadku 8800GTX) aby karta pokazała co potrafi, dzis moze byc za mało, nie bez powodu na rynku mamy procki robiace spokojnie po 4,5 Ghz,

a dwa ze i w grach w wielu miejscach to od procesora zalezy ilos FPS, wiec badz co badz procesor bardzo dobrze uzupełnia sie z grafika, wlasnie po to zeby nie było widocznych spadków w fps,

z Max-em zgadzam sie całkowicie, w wypadku wszystkich kart opartych o CF znaczenie procesora jest nie bagatelne i napewno aby karta pokazała co potrafi potrzeba wiecej MHz od cepa, tam gdzie da to widoczny wzrost w CF w wypadku jednego GPU moze nic nie zmienic badz proporcjonalnie mniej, koniec OT

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tutaj jest recenzja karty Radeon HD 4870 X2. Wyniki w wysokich rozdzielczosciach imponujace.. >>>LINK<<< nie wiem tylko jak interpretowac ten pobor mocy 564W to ciut dużo xD

A jak byś chciał? No normalnie komputer testowy z tą karta na pokładzie pobiera 564W..a ile ma pobierać z defacto dwoma kartami graficznymi?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A jak byś chciał? No normalnie komputer testowy z tą karta na pokładzie pobiera 564W..a ile ma pobierać z defacto dwoma kartami graficznymi?

Czyli tzn. ze te wyniki dotycza samej tylko karty? http://www.techreport.com/articles.x/15293/10

bo troche te róznice za duze tu 444 tam grubo ponad 500.

 

Zamówiłem w icompie cena troche wysoka ale co tam, jak juz dostane porobie jakies testy, tylko jeszcze wymienie zasilacz, jak ktos jest zainteresowany to sprzedaje swojego BeQuiet! 500W, bardzo dobra zasiłaka no ale potrzeba mi przynajmniej 600/650W, jak cos wystawiam w dziale Sprzedam.

Edytowane przez lukaszrobert

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Dodaj odpowiedź do tematu...

×   Wklejono zawartość z formatowaniem.   Przywróć formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

Ładowanie



×
×
  • Dodaj nową pozycję...