mateo1977 Opublikowano 12 Sierpnia 2008 Zgłoś Opublikowano 12 Sierpnia 2008 Nie, przecież wymiany kart topowych co 3miechy maja mało synsu samo w sobie. Więc poddawanie wątpliwości wymianę karty gtx na x2 i doszukiwanie się w tej wymianie sensu jest samo w sobie bezsensu. Podobnie bvyło z Twoja wymiana karty gx2 na gtx. Tyle tylko że w tamtym przypadku sens wymiany był jeszcze mniejszy. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Lysyn Opublikowano 12 Sierpnia 2008 Zgłoś Opublikowano 12 Sierpnia 2008 (edytowane) :) jak bym patrzyl czy jest sens wymainy czagokolwiek to bym sobie laptopa kupil. Ale w tym przypadku nie ma to sensu. I tak ta karta Crysisa na full w 1920x1200 nie pociagnie. Edytowane 12 Sierpnia 2008 przez Lysyn Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Eclipse Opublikowano 12 Sierpnia 2008 Zgłoś Opublikowano 12 Sierpnia 2008 Zeby jeszcze bylo w co grac na tych kartach. Bez dobrych gier a takich robi sie z roku na rok coraz mniej to bezwartosciowy kawalek plastiku i krzemu. A karta jak to karta. Goraca i glosna ale wydajna. Dla koneserow ;) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
לוק Opublikowano 12 Sierpnia 2008 Zgłoś Opublikowano 12 Sierpnia 2008 MIalem tez cf 4850 i niestety wystepowały błędy w renderowaniu grafiki w grach. A na g280 tego nie ma. A jaki sens widzisz w wymianie? Obraz nie bedzie płynniejszy niz na g280 bo czy 60 klatek czy 120 nie ma zadnej roznicy w dzialaniu gry + duzo wiekszy pobór pradu niz na g280.Dałeś teraz do pieca. Róznica w pierwszej lepszej grze np CoD4 60 a 125, nawet jest róznica miedzy 125 a 250 moze nie jest to widoczne w samym fps ale zwylke jesli karat ma 250 to zadko spada ponizej 125, natomiast jak zazwyczaj jest 125 to spadki ponizej 60 sa juz czeste. Wogóle gry to nie telewizor gdzie do płynnego obrazu wystarczy 25 klatek, a oko i tak nie zauwazy roznicy jak bedzie wiecej, w grze widac wszystko i wiekszy fps zawsze jakos sie przekłada na doznania podczas gry. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Hanu Opublikowano 12 Sierpnia 2008 Zgłoś Opublikowano 12 Sierpnia 2008 Jak dla mnie przewaga Ati jest widoczna wyraźnie. Jeśli zaś weźmiemy pod uwagę minimalną różnicę w cenie to chyba nie ma się nad czym zastanawiać. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Maxforce Opublikowano 12 Sierpnia 2008 Zgłoś Opublikowano 12 Sierpnia 2008 (edytowane) Jak dla mnie przewaga Ati jest widoczna wyraźnie. Jeśli zaś weźmiemy pod uwagę minimalną różnicę w cenie to chyba nie ma się nad czym zastanawiać.Pomyślmy przy wyższej cenie: Problemy na Vista x64 jest ich sporo Problemy na Vista 32bit też jest pare A problemy to nie działające tytuły w CF a jest ich sporo seria NFS,COlin Dirt,RS vegas2,Crysis(high ustawienia)na VH jest OK,COD4 ładnie pięknie ale zależy od miejsca testowanego takie wahania w CF że główa boli,Gothic III można jeszcze wymieniać. Niestety z ceną muszą polecieć niżej niż GTX.Bo stery od czerwca w CF minimalnie poprawiają wydajność. Edytowane 12 Sierpnia 2008 przez Maxforce Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
rafa Opublikowano 12 Sierpnia 2008 Zgłoś Opublikowano 12 Sierpnia 2008 Wszystko zalezy do jakiego monitora ma być ta karta. Ale że ma moc, nie można jej odmówić ;) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Lysyn Opublikowano 12 Sierpnia 2008 Zgłoś Opublikowano 12 Sierpnia 2008 Ja mam 24" i mysle ze g280 narazie starczy. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
kkNd! Opublikowano 12 Sierpnia 2008 Zgłoś Opublikowano 12 Sierpnia 2008 kurde wiedzialem zeby zostawic crysisa na pozniej :D ze taki offtop walne - w najblizszej przyszlosci wyjda jakies gry dla ktorych warto kupowac takiego potwora? oczywiscie do 1920x1200 ;) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Hanu Opublikowano 12 Sierpnia 2008 Zgłoś Opublikowano 12 Sierpnia 2008 Pomyślmy przy wyższej cenie: Problemy na Vista x64 jest ich sporo Problemy na Vista 32bit też jest pare A problemy to nie działające tytuły w CF a jest ich sporo seria NFS,COlin Dirt,RS vegas2, Jak to nie działa? Chodzi chyba o to, że CF nie daje relatywnie wyższej wydajności niż jedna karta? Co to niby za problemy z x64? Wiesz, konkrety by się przydały , bo ogólnikami to za komuny mówili. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Lysyn Opublikowano 12 Sierpnia 2008 Zgłoś Opublikowano 12 Sierpnia 2008 (edytowane) Gothic 3 - błędy w renderowaniu grafiki w cf. Edytowane 12 Sierpnia 2008 przez Lysyn Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
radiergummi Opublikowano 12 Sierpnia 2008 Zgłoś Opublikowano 12 Sierpnia 2008 Ciekawa jest zapowiedz 4850 X2. Karta może zyskać dużą popularność ze względu na prawdopodobną wydajność (~4850CF), brak wymogu posiadania płyty z obsługą CF i zakładam atrakcyjną cenę (trochę mniej niż 4850 w CF). Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Proofit Opublikowano 12 Sierpnia 2008 Zgłoś Opublikowano 12 Sierpnia 2008 nowy test 4870X2 http://new.benchmark.pl/index.php/testy_i_...ATIAMD-804.html ;) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
ZlyDzien Opublikowano 12 Sierpnia 2008 Zgłoś Opublikowano 12 Sierpnia 2008 Tutaj jest recenzja karty Radeon HD 4870 X2. Wyniki w wysokich rozdzielczosciach imponujace.. >>>LINK<<< nie wiem tylko jak interpretowac ten pobor mocy 564W to ciut dużo xD Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Maxforce Opublikowano 12 Sierpnia 2008 Zgłoś Opublikowano 12 Sierpnia 2008 (edytowane) Jak to nie działa? Chodzi chyba o to, że CF nie daje relatywnie wyższej wydajności niż jedna karta? Co to niby za problemy z x64? Wiesz, konkrety by się przydały , bo ogólnikami to za komuny mówili. Gothic 3 skalowanie nigdy nie działało w X2 czy CF Crysis detale HIGH dx9 czy DX10 skalowanie zaczyna się dopiero od 1920x1200 poniżej tego wydajność jak na jednej karcie,odziwo w VH ustawieniach jest wszystko OK. COH DX10 na czystym bez dodatku nie da się wyłączyć Vsync na Vista 64bit na Vista 32 bezproblemowo się wyłącza. NFS PRO wydajność jednego GPU Infernal wolniej niż na jednym GPU Colin Dirt zwalnia na X2 po wypadku odziwo w normalnym CF tego problemu nie ma RS Vegas 2 wydajność jednego GPU-i to niezależnie czy X2 czy CF normalne. Call of Duty 4 huśtawka ze skalowaniem jak na rollercoaster raz 10% raz 60%+ znajdzie się jeszcze więcej zapewne,a najważniejsze Crysis,GRID są blokowane przez CPU przy tej karcie chodzi o skalowanie,karta wymaga naprawdę mocnego procesora i dość często 3.5Ghz nie starcza urok CF-SLI. Jeszscze na dodatek ta cena 559$ to narmalnie przegieli GTX280 kosztuje 420$ :lol2: Jedyne sensowne rozwiązanie MULTI GPU jeśli chodzi od nich to 4850 i mod i wydajność na sama a cena 240$ taniej. Edytowane 12 Sierpnia 2008 przez Maxforce Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
לוק Opublikowano 13 Sierpnia 2008 Zgłoś Opublikowano 13 Sierpnia 2008 (edytowane) dla mnie te testy sa jakies powalone na jednych wyglada ze radeon ma bardzo stabilny fps i jest szybszy od GTX-a , te z benchmarka mówia co innego choc tam robine na AMD, ja tam w nic nie wierze czekam na jakies oficjalne testy bo te to mozna o kant [gluteus maximus] potłuc, mi sie wydaje ze w Crysisie i wogole w wiekszosci gier 4870X2 powinno byc wydajniejsze Edytowane 13 Sierpnia 2008 przez lukaszrobert Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Proofit Opublikowano 13 Sierpnia 2008 Zgłoś Opublikowano 13 Sierpnia 2008 TU jest test 4870X2 na intelu i amd ;) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Lysyn Opublikowano 13 Sierpnia 2008 Zgłoś Opublikowano 13 Sierpnia 2008 "Gdybyśmy mieli wybierać pomiędzy GTX 280 a HD 4870 X2, mocno byśmy się wahali. Oba rozwiązania mają swoje zalety i wady. Radeon niewątpliwie jest szybszy... ale tylko w wysokich rozdzielczościach. Posiadacze typowych monitorów (22" lub mniejszych) nie będą w stanie nawet wyświetlić dostatecznie wysokich rozdzielczości, by odczuć moc Radeona. A w niższych trybach graficznych, czyli 1680x1050 i mniej, GeForce jest wydajniejszy. To raz. Dwa, konfiguracje Multi-GPU nie tylko wymagają specjalnych profili, ale mogą być czasami kłopotliwe. I trzy, Radeon jest cholernie prądożerny." Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
mateo1977 Opublikowano 13 Sierpnia 2008 Zgłoś Opublikowano 13 Sierpnia 2008 "Gdybyśmy mieli wybierać pomiędzy GTX 280 a HD 4870 X2, mocno byśmy się wahali. Oba rozwiązania mają swoje zalety i wady. Radeon niewątpliwie jest szybszy... ale tylko w wysokich rozdzielczościach. Posiadacze typowych monitorów (22" lub mniejszych) nie będą w stanie nawet wyświetlić dostatecznie wysokich rozdzielczości, by odczuć moc Radeona. A w niższych trybach graficznych, czyli 1680x1050 i mniej, GeForce jest wydajniejszy. To raz. Dwa, konfiguracje Multi-GPU nie tylko wymagają specjalnych profili, ale mogą być czasami kłopotliwe. I trzy, Radeon jest cholernie prądożerny."Zgodzę się. Nie ma wątpliwości co do trudności wyboru między tymi kartami. Prawda jest też taka, że argument prądożerności musieliśmy sobie odpuścić już prawie 2lata temu przy kupnie 88gtx. Trudności z gx2 i wszystkimi 2-procesorowymi kartami istniał i istnieć będzie. LYSYN jeżeli szukasz argumentu by nie zmieniać karty to jak najbardziej jest on dobry. Uwierz mi, że wątpliwości będą przy zmianie jak i przy braku zmiany. Ja sprzedając kartę miałem wątpliwości i po jej sprzedaniu miałem ich jeszcze więcej. Zapewne nie raz po kupnie x2 będę miał ich trochę(wątpliwości) ale one są nieodzowną częścią naszej "choroby". Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Lysyn Opublikowano 13 Sierpnia 2008 Zgłoś Opublikowano 13 Sierpnia 2008 Niestety masz racje. To jest choroba. Ale tez firmy takie jak NVIDIA robia sobie jaka z uzytkowników wypuszczając karte GX2 a za 3 miesiace GTX 280. ATI przynajmniej troche czekało z wydaniem nowych kart. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
satou Opublikowano 13 Sierpnia 2008 Zgłoś Opublikowano 13 Sierpnia 2008 (edytowane) Jednak trzeba przyznac ze narazie ATI jest blizej odnalezienia zlotego srodka.Jesli komus wystarcza zwykle rozdzielczosci pokroju 1024x768/1280x1024 wystarczy mu 800zl i pojedyncza karta HD 4870 , jezeli ktos jest entuzjasta kosmicznych rozdzielczosci, HD 4870X2 za 1400zl jest bardzo dobra oferta. nVidia obnizkami cen pokazala tak naprawde ze chciala ukryc jak najwiecej asow w rekawie zeby zarobic odpowiednia ilosc kasy na GTX-ach, ale tutaj nie wyszlo, musieli zleciec z bandyckich cen. A jak juz sobie przypomne ceny GF 8800 po 2 tys zl to juz mam kompletny obraz jak nVidia stara sie wiecej zyskac , niz dac ( co w biznesie jest norma, ale tutaj marketing nv rozwinal sie perfekcyjnie, zwlaszcza przekrety miedzy seriami 8800 a 9800 ). Teraz probuje sie ratowac PhysX/Cuda ale bez wsparcia tworcow oprogramowania raczej nie bedzie to silny argument. Czyli skonczyly sie czasy spokojnego dojenia dla tej firmy, dobrze mysle ? Edytowane 13 Sierpnia 2008 przez satou Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Maxforce Opublikowano 13 Sierpnia 2008 Zgłoś Opublikowano 13 Sierpnia 2008 (edytowane) 3071418[/snapback] Jednak trzeba przyznac ze narazie ATI jest blizej odnalezienia zlotego srodka.Jesli komus wystarcza zwykle rozdzielczosci pokroju 1024x768/1280x1024 wystarczy mu 800zl i pojedyncza karta HD 4870 , jezeli ktos jest entuzjasta kosmicznych rozdzielczosci, HD 4870X2 za 1400zl jest bardzo dobra oferta. i w 1680x1050 będzie dobrze jak proc będzie powyżej 3.5Ghz dla mnie te testy sa jakies powalone na jednych wyglada ze radeon ma bardzo stabilny fps i jest szybszy od GTX-a , te z benchmarka mówia co innego choc tam robine na AMD, ja tam w nic nie wierze czekam na jakies oficjalne testy bo te to mozna o kant [gluteus maximus] potłuc, mi sie wydaje ze w Crysisie i wogole w wiekszosci gier 4870X2 powinno byc wydajniejsze i widzisz na wykresach jak jest zablokowana przez procesor karta różnica 1FPS pomiędzy rozdzielczościami. Następni z platformą nie nadającą się do MultiGPU AMD Phenom 8650 2200MHz @ 2900MHz Edytowane 13 Sierpnia 2008 przez Maxforce Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
satou Opublikowano 13 Sierpnia 2008 Zgłoś Opublikowano 13 Sierpnia 2008 (edytowane) test porażka wybrali platformę do OC gdzie proc max 3Ghz a tu bez 3.5Ghz nie ma podchodzić dlatego takie wyniki w niższych rozdzielczościach. i w 1680x1050 będzie dobrze jak proc będzie powyżej 3.5Ghz masz na to jakies dowody ? no przepraszam, to nie czasy 3DFX gdzie silny procesor odgrywal najwazniejsza role w pracy akceleratora. Dzisiejsze GPU nie bez powodu wziely swoja nazwe, sa to jednostki ktore doskonale radza sobie samodzielnie z wyswietlaniem grafiki skutecznie odciazajac CPU. A moze sie myle ? Mozesz to jakos udowodnic ? mam na mysli sytuacje gdy korzystamy z procesora o taktowaniu naprzyklad 2.8Ghz a 3.5Ghz, czy sa jakies znaczace roznice w testach ktore wplynely na wydajnosc tych kart graficznych i czy rzeczywiscie wykorzystanie procesora odgrywa taka istotna role. Pytam bo znowy mam wrazenie ze jest tworzony kolejny mit. Z procesorem o nizszym taktowaniu niz 3.5Ghz nie mozna wykorzystac mozliwosci karty graficznej ? Ja rozumiem gdybysmy mowili o znaczacych roznicach jak architektura np. Pentium IV i Core 2 , ale roznica 700Mhz ? Pytam bo jesli piszesz takie rzeczy to musisz miec na to jakies dowody na poparcie tej tezy, prawda ? Edytowane 13 Sierpnia 2008 przez satou Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Maxforce Opublikowano 13 Sierpnia 2008 Zgłoś Opublikowano 13 Sierpnia 2008 (edytowane) masz na to jakies dowody ? no przepraszam, to nie czasy 3DFX gdzie silny procesor odgrywal najwazniejsza role w pracy akceleratora. Dzisiejsze GPU nie bez powodu wziely swoja nazwe, sa to jednostki ktore doskonale radza sobie samodzielnie z wyswietlaniem grafiki skutecznie odciazajac CPU. A moze sie myle ? Mozesz to jakos udowodnic ? mam na mysli sytuacje gdy korzystamy z procesora o taktowaniu naprzyklad 2.8Ghz a 3.5Ghz, czy sa jakies znaczace roznice w testach i czy one rzeczywiscie wskazuja na wykorzystanie procesora. Tak ma ale może dzisiaj sam sobie o tym poczytasz. Nie czasy 3DFx ale multiGPU a tu jest gorzej niż za czasów 3Dfx a CF o 300-400Mhz więcej wymaga od procka niż SLI. Przy 4870X2 jest jeszcze gorzej bo taktowanie kart większe i jeszcze więcej wymagają od prcesora. Proc 3.5Ghz e6600 4870X2 1024: 35,3 1280: 33,4 1600: 30 4Ghz e8400 4850CF 1024=50.98 1280=39.97 1600=34.3 Grafy po OC Edytowane 13 Sierpnia 2008 przez Maxforce Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
לוק Opublikowano 13 Sierpnia 2008 Zgłoś Opublikowano 13 Sierpnia 2008 TU jest test 4870X2 na intelu i amd ;)Dziekuje bardzo, ale kolejne testy które nic nie mówia, po pierwsze w tescie na platformie AMD w Crysisie w benchmarku jakoby gtx280 dominuje, w grze sytuacja jest odwrotna i to GTX spada na sam dół. Jesli chodzi o platforme z Intelem to tez nie napisali czy to sa wyniki z gry czy tylko benchmarka wiec dalej nie wiele wiadomo, ja dalej zostaje przy swoim ze Radosław rozłozy GTX w Crysisie, przeciez mówil ze 2x HD4870X2 jest wydajniensze niz 3-way SLI 280GTX. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Maxforce Opublikowano 13 Sierpnia 2008 Zgłoś Opublikowano 13 Sierpnia 2008 (edytowane) Dziekuje bardzo, ale kolejne testy które nic nie mówia, po pierwsze w tescie na platformie AMD w Crysisie w benchmarku jakoby gtx280 dominuje, w grze sytuacja jest odwrotna i to GTX spada na sam dół. Jesli chodzi o platforme z Intelem to tez nie napisali czy to sa wyniki z gry czy tylko benchmarka wiec dalej nie wiele wiadomo, ja dalej zostaje przy swoim ze Radosław rozłozy GTX w Crysisie, przeciez mówil ze 2x HD4870X2 jest wydajniensze niz 3-way SLI 280GTX. Jak procesor będzie powyżej 3.5Ghz dopiero wtedy. 2x HD4870X2 nie skaluje się praktycznie wcale już. http://www.techreport.com/articles.x/15293/8 Edytowane 13 Sierpnia 2008 przez Maxforce Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
satou Opublikowano 13 Sierpnia 2008 Zgłoś Opublikowano 13 Sierpnia 2008 (edytowane) Jesli te kilka slupkow to Twoim zdaniem zelazny dowod na to ze multi GPU nie poradzi sobie ze wspolpraca z CPU o taktowaniu nizszym niz 3.5Ghz , to winszuje. Maxforce, naprawde , nic osobistego, ale poprostu twoje zamilowanie do wykresow przeslania Ci trzezwe spojrzenie na swiat. Przypuscmy ze mam na skladzie procesor Intel Core 2 Duo E8200, 2.66GHz . Jezeli doloze do niego HD 4870X2 jestem pewny ze roznice w wydajnosci ( zapewne rzedu kilku % ) miedzy innym procesorem, np Intel Core 2 Duo E8500 3.5GHz bedzie mozna zwalic predzej na uzyte oprogramowanie, sterownik lub niepewnosc pomiaru, niz faktyczna zaleznosc GPU od CPU. A to jest roznica, bo przez jedna zle napisana gre w ktorej procesor moze rzeczywiscie byc niepotrzebnie obciazany , nie powinnismy osadzac GPU i jego wydajnosci. W DX 9.0 moc obliczeniowa CPU potrzebna do obslugi bibliotek graficznych moze siegac 40% cykli procesora, ale dzieki DX 10 udalo sie zmniejszyc ten narzut do 20%. Wogole wsparcie DX 10 przynosi szereg usprawnien odciazajacych CPU z zadan zwiazanych z generowaniem grafiki ( a nie nowymi efektami graficznymi jak sie niektorym wydaje ). Tak wiec rola CPU ma coraz mniejsze znaczenie. I uwazam ze Maxforce wysuwasz bledne wnioski i wprowadzasz innych niepotrzebnie w blad. Edytowane 13 Sierpnia 2008 przez satou Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
לוק Opublikowano 13 Sierpnia 2008 Zgłoś Opublikowano 13 Sierpnia 2008 nie wydaje mi sie zeby miało coraz mniejsze znaczenie, po mimo PsyhX i innych rozwiazan w architektórze GPU( poprostu karta jest bardziej dociazona) co wpływa na spadek fps, trzeba jakos to zrównowazyc, nawet jesli GPU przejmie czesc obliczen na siebie, duzy zegar CPU poprawia wydajnosc, a w CrosFire to juz koniecznosc i karty juz od dawna dusza sie na 3GHz a co dopiero w CF, nie wiem dlaczego uwazasz ze wpływ CPU na wydajnosc GPU jest minimalna, własnie głupi procesor potrafi zabic karte o 50%-60% wiem to z doswiadczenia, procki sa coraz bardziej wydajne ale przeciez karty tez nie stoja w miejscu, i tam gdzie kiedys wystarczyło 3GHz (w wypadku 8800GTX) aby karta pokazała co potrafi, dzis moze byc za mało, nie bez powodu na rynku mamy procki robiace spokojnie po 4,5 Ghz, a dwa ze i w grach w wielu miejscach to od procesora zalezy ilos FPS, wiec badz co badz procesor bardzo dobrze uzupełnia sie z grafika, wlasnie po to zeby nie było widocznych spadków w fps, z Max-em zgadzam sie całkowicie, w wypadku wszystkich kart opartych o CF znaczenie procesora jest nie bagatelne i napewno aby karta pokazała co potrafi potrzeba wiecej MHz od cepa, tam gdzie da to widoczny wzrost w CF w wypadku jednego GPU moze nic nie zmienic badz proporcjonalnie mniej, koniec OT Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
rafa Opublikowano 13 Sierpnia 2008 Zgłoś Opublikowano 13 Sierpnia 2008 Tutaj jest recenzja karty Radeon HD 4870 X2. Wyniki w wysokich rozdzielczosciach imponujace.. >>>LINK<<< nie wiem tylko jak interpretowac ten pobor mocy 564W to ciut dużo xDA jak byś chciał? No normalnie komputer testowy z tą karta na pokładzie pobiera 564W..a ile ma pobierać z defacto dwoma kartami graficznymi? Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
לוק Opublikowano 13 Sierpnia 2008 Zgłoś Opublikowano 13 Sierpnia 2008 (edytowane) A jak byś chciał? No normalnie komputer testowy z tą karta na pokładzie pobiera 564W..a ile ma pobierać z defacto dwoma kartami graficznymi?Czyli tzn. ze te wyniki dotycza samej tylko karty? http://www.techreport.com/articles.x/15293/10 bo troche te róznice za duze tu 444 tam grubo ponad 500. Zamówiłem w icompie cena troche wysoka ale co tam, jak juz dostane porobie jakies testy, tylko jeszcze wymienie zasilacz, jak ktos jest zainteresowany to sprzedaje swojego BeQuiet! 500W, bardzo dobra zasiłaka no ale potrzeba mi przynajmniej 600/650W, jak cos wystawiam w dziale Sprzedam. Edytowane 13 Sierpnia 2008 przez lukaszrobert Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...