Skocz do zawartości
TomaszPaweł

Geforce7900gt Vs Geforce8800gts

Rekomendowane odpowiedzi

Dzizas, niektorzy dalej nie rozumieja i krzycza o zmianie procka, bo test do pupy bo za wolny ten A64, a przeciez autor tematu

podkreslil to juz na poczatku:

 

Jest to komputer złożony w styczniu 2006r, podobną konfigurację posiada wiele osób. Pytanie, jakie sobie postawiłem było takie:

Z punktu widzenia gracza, co będzie bardziej opłacalne. Za tą samą kasę przesiąść się na Core2Duo czy kupić nową kartę graficzną? Wybrałem nową kartę graficzną.

Autor testu chcial odpowiedziec na bardzo wazne pytanie, lepiej procka, czy lepiej karte kupic. Wybor koncowy jaki jest, kazdy

widzi.

 

Wiec juz skonczcie ta gadke czy jego procek blokowal tego 8800 czy nie. Bo nie o to tu chodzi.

 

Tak poza tym to test bardzo ok, gratulacje dla autora.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No i stało się, 7900gt już w pudełku a 8800gts siedzi w budzie i pracuje z a64. I co? I nic... hehe, Jedyna wymagająca gra w tym momencie to tdu. Różnica kolosalna, oczywiście hdr i aax4, filtr anizox16... fps nie spadł nigdy poniżej 30 bez względu co by się działo. W miejscach najbardziej wymagających czyli miasto i widok z wnętrza auta lub tylnego zderzaka dobre 35-40( możliwe, że zaniżam), jazda po mniej wymagających lokacjach to już 60-70fps wzwyż a nawet raz było powyżej 100.

 

NIE MAM PYTAŃ!

 

Myślę, że przy grach, które się ukażą(najbliżej stalker) ta moc przełoży się na liczbę wyświetlanych klatek. No i oczywiście hdr w połączeniu z wygładzaniem krawędzi to sam miodek.

 

Dołączona grafikaDołączona grafikaDołączona grafika

Dołączona grafikaDołączona grafika

 

Zerknijcie na ostatni screen... wiecie co się w takiej sytuacji działo na 7900?

 

I uprzedzam jeszcze jakieś docinki odnośnie rozdzielczości...

... spokojnie... będzie 19 calowa panorama.

 

:wink:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

W obronie 7900GT z mocnym prockiem to popatrzcie na moje wyniki w testach syntetycznych pod avatarem,

test 2006 to 7975 pkt.

http://service.futuremark.com/compare?3dm06=894237

Taka wydajdość w rozdziałce 1280x1024 natywnej dla LCD Benq FP93G wystarcza w zupełności. Spokojnie czekam na nowe modele kart.

Edytowane przez atomel

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

W obronie 7900GT z mocnym prockiem to popatrzcie na moje wyniki w testach syntetycznych pod avatarem,

test 2006 to 7975 pkt.

http://service.futuremark.com/compare?3dm06=894237

Taka wydajdość w rozdziałce 1280x1024 natywnej dla LCD Benq FP93G wystarcza w zupełności. Spokojnie czekam na nowe modele kart.

ech - wiesz sam dobrze że Twoje OC grafy nie można nazwać ani przeciętnym ani na 24/7 ...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

ech - wiesz sam dobrze że Twoje OC grafy nie można nazwać ani przeciętnym ani na 24/7 ...

he, he :razz:

 

No dobra jadę 24/7 na 700/900 i mam 7200 pkt w 3d 2006. Dzięki Yoto za zwrócenie uwagi :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

atomel

To zes dolozyl :lol: Wole nie znac szczegolow jak doszlo do 780MHz zeby miec spokojny, niczym nie przerwany sen bez miernikow ect... ;]]]]

Miernik posiadam i używam. Sen mam spokojny bo 700/900 uzywam od roku.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Miernik posiadam i używam. Sen mam spokojny bo 700/900 uzywam od roku.

oj,tez tak myślalem ale do czasu ,odpal w Stalkerze(BETA) w ini r2_gi na on (dynamiczne odbicia oswietlenia na innych obiektach) i powiem Tobie że x1900XT nawet wykrecony 800/1100 nie dał by rady :lol2:

nie zaśpij ze sprzedażą grafy ;-)

Atomel włącz w TDU AA i HDR , :rolleyes: zapomniałem ,bez AA ta gra wyglada żałośnie

Edytowane przez Racuch

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gość Ludwiczek

@atomel Twoje wyniki można traktować z... :wink:

No i qqrydza zamknął usta niewiernym :D Fajnie wygląda ten TDU :rolleyes:

Nie możliwe lepsza karta daje więcej FPS :wink: Jak dla mnie na A64 spokojnie można mieć GTXa ale jak się ma jakiegoś C2D to dopiero można wykorzystać jego cały potencjał i w parze z takim procem FPSów będzie jeszcze więcej a to chyba co innego od stwierdzenia, że A64 do niczego się nie nadaje?

 

@qqrydza a inne gry jak?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie możliwe lepsza karta daje więcej FPS :wink: Jak dla mnie na A64 spokojnie można mieć GTXa ale jak się ma jakiegoś C2D to dopiero można wykorzystać jego cały potencjał i w parze z takim procem FPSów będzie jeszcze więcej a to chyba co innego od stwierdzenia, że A64 do niczego się nie nadaje?

(...)

Oczywiście pod tym stwierdzeniem mogę się podpisać. Lepsza karta daję więcej fps, ale niektórzy starają tutaj wypowiadać kwestię, że A64 dusi już 79GT, a co dopiero 88GTS :wink: A to czy A64 się do czegoś nadaję? Odpowiedzi już mamy dwie i przeczą one stwierdzeniom niektórych user'ów :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Żaden współczesny procesor nie dusi bezpośrednio karty. Nie ma liniowej korelacji między wydajnością cpu i wydajnością gpu. To, że na szybszym cpu jest czasem więcej klatek wynika z tego, że cpu dostarcza dane karcie graficznej, ale przy okazji zajmuje się innymi obliczeniami związanymi z obsługą gry. Dostarczanie karcie danych do wygenerowania grafiki to dla procesora jest pestka w porównaniu z obliczeniami ai i fizyki. W związku z tym pewne gry wymagają silnego procesora, a inne nie. Także w związku z tym pewne gry dostają kopa po wymianie karty na silniejszą mimo słabego cpu (bo pewna gra nie wymaga silnego cpu), ale też równie dobrze będą gry, na których wzrost klatek z takiej wymiany będzie zerowy (bo cpu jest za słaby do danej gry).

Osobiście jestem zwolennikiem mocnego cpu (choć takiego nie posiadam) i przeciętnej karty, a to dlatego, że jeśli gra słabo działa z powodu niewydolności cpu, to praktycznie nic nie można na to poradzić. Jeśli karta nie wyrabia, to np. obniżam do 800x600, wyłączam aa i mam płynność.

Z drugiej strony patrząc, jeśli ktoś woli wygląd, niż 100% płynność, bardziej zadowoli się wymaksowaną kartą i słabszym cpu. Pozwoli mu to na grę w wysokich rozdzielczościach z aa i hdr, tyle że musi się liczyć czasami z większymi spadkami fps, ale niekoniecznia tak być musi, bo nie każda gra wymaga silnego cpu. Dla posiadaczy LCD z natywną 1280x1024 i więcej to rozwiązanie jest sensowniejsze. Co do silnego cpu, to za takiego uważam już san diego 3ghz lub c2d 2,4ghz.

Podsumowując, to chciałem tylko zwrócić uwagę na fakt, że procek generuje pewną ilość klatek, karta również generuje pewną ilość klatek, ale nie jest ona większa od tej, którą generuje procek. Jeśli procek w grze nie ma za dużo do roboty, wówczas generuje tak dużo klatek, że od karty zależy, ile ich mamy na ekranie. To nie jest zależność liniowa, bzdurą jest również stwierdzenie, że w wysokich rozdzielczościach procek ma mało do gadania. Ma do gadania dokładnie tyle samo, co w niskich rozdzielczościach, tyle że tego nie widać, bo słaba karta nie daje rady.

Tyle z mojej strony. Najważniejsze, że autor tematu jest zadowolony ze swojej decyzji. Istotna dla niego była wydajnośc w oblivionie i gothicu, a te gry jak widać z testów wymagały silniejszej karty i zadowalają się A64. Gdyby priorytetem były zupełnie inne gry, być może żałowałby podjętej decyzji. To gry zadowalają się bądź nie owym A64, nie karta.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Żaden współczesny procesor nie dusi bezpośrednio karty. Nie ma liniowej korelacji między wydajnością cpu i wydajnością gpu. To, że na szybszym cpu jest czasem więcej klatek wynika z tego, że cpu dostarcza dane karcie graficznej, ale przy okazji zajmuje się innymi obliczeniami związanymi z obsługą gry. Dostarczanie karcie danych do wygenerowania grafiki to dla procesora jest pestka w porównaniu z obliczeniami ai i fizyki. W związku z tym pewne gry wymagają silnego procesora, a inne nie. Także w związku z tym pewne gry dostają kopa po wymianie karty na silniejszą mimo słabego cpu (bo pewna gra nie wymaga silnego cpu), ale też równie dobrze będą gry, na których wzrost klatek z takiej wymiany będzie zerowy (bo cpu jest za słaby do danej gry).

Osobiście jestem zwolennikiem mocnego cpu (choć takiego nie posiadam) i przeciętnej karty, a to dlatego, że jeśli gra słabo działa z powodu niewydolności cpu, to praktycznie nic nie można na to poradzić. Jeśli karta nie wyrabia, to np. obniżam do 800x600, wyłączam aa i mam płynność.

Z drugiej strony patrząc, jeśli ktoś woli wygląd, niż 100% płynność, bardziej zadowoli się wymaksowaną kartą i słabszym cpu. Pozwoli mu to na grę w wysokich rozdzielczościach z aa i hdr, tyle że musi się liczyć czasami z większymi spadkami fps, ale niekoniecznia tak być musi, bo nie każda gra wymaga silnego cpu. Dla posiadaczy LCD z natywną 1280x1024 i więcej to rozwiązanie jest sensowniejsze. Co do silnego cpu, to za takiego uważam już san diego 3ghz lub c2d 2,4ghz.

Podsumowując, to chciałem tylko zwrócić uwagę na fakt, że procek generuje pewną ilość klatek, karta również generuje pewną ilość klatek, ale nie jest ona większa od tej, którą generuje procek. Jeśli procek w grze nie ma za dużo do roboty, wówczas generuje tak dużo klatek, że od karty zależy, ile ich mamy na ekranie. To nie jest zależność liniowa, bzdurą jest również stwierdzenie, że w wysokich rozdzielczościach procek ma mało do gadania. Ma do gadania dokładnie tyle samo, co w niskich rozdzielczościach, tyle że tego nie widać, bo słaba karta nie daje rady.

Tyle z mojej strony. Najważniejsze, że autor tematu jest zadowolony ze swojej decyzji. Istotna dla niego była wydajnośc w oblivionie i gothicu, a te gry jak widać z testów wymagały silniejszej karty i zadowalają się A64. Gdyby priorytetem były zupełnie inne gry, być może żałowałby podjętej decyzji. To gry zadowalają się bądź nie owym A64, nie karta.

Dokladnie tak, czytalem wiele opini na roznych forach, magazynach i czasopismach i zawsze redaktorzy opisywali jakies schematy zaleznosci wydajnosci w grach, karty graficznej od procesora ale WDK opisal to tak jak jest.

Ja tez wole miec wydajniejszy procesor niz karte graficzna i tak jak WDK jak mi jakas gra nie dziala obnizam jakosc detali i juz :)

Gratz for WDK. :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No to może ja przedstawię to z mojej perspektywy... mam wypasionego proca(w miarę :-D np: x2 lub c2d) i 7300gt. Gra na najniższych detalach bez aa i af o hdr niewspominając w ogóle, zwalnia do powiedzmy 25fps w niskiej rozdzielczości. Osobiście wolę zmienić grafę i gra czasem zwolni(przez ograniczenie procesorem) do 25 na pełnych detalach z aax4, afx16 w dodatku z hdr i w rozdzielczości 1440x900 niż kupować quad c2d(tak się to pisze?).

 

:rolleyes:

Edytowane przez qqrydza

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No to może ja przedstawię to z mojej perspektywy... mam wypasionego proca(w miarę :-D np: x2 lub c2d) i 7300gt. Gra na najniższych detalach bez aa i af o hdr niewspominając w ogóle, zwalnia do powiedzmy 25fps w niskiej rozdzielczości. Osobiście wolę zmienić grafę i gra czasem zwolni(przez ograniczenie procesorem) do 25 na pełnych detalach z aax4, afx16 w dodatku z hdr i w rozdzielczości 1440x900 niż kupować quad c2d(tak się to pisze?).

 

:rolleyes:

Zgadzam się z tobą - też tak wole.

Wszystko zależy od tego co kto oczekuje - kupując kartę z górnej półki nie każdy lubi mieć spadki FPS , po to ją kupuje, żeby grać na max detalach, bez spadków.Oczywiście jak napisałem, zależy to od upodobań.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tam zapomniałem dopisać, że na tych czterech rdzeniach w tym krytycznym momencie będzie 50fps ale w marnej jakości(jeśli gra te rdzenie wykorzysta).

Czas pokaże słuszność wyboru choć już osiągnąłem to co zamierzałem i jestem zadowolony a nawet więcej niż tylko zadowolony na przykładzie tdu. Już drażnił mnie brak aa przy hdr. Nadchodzące gry również zweryfikują tego typu decyzje.

 

Jeszcze coś... względne to wszystko jest i decyduje o tym zasobność portfela, co do tego nie ma chyba wątpliwości, mając to co w podpisie i 7900gt, chcąc zmienić całą platformę pozostawiając grafę, myślę, że więcej bym stracił i pozostał ze starszą technologią(dx). A przy zmianie grafy za jakiś czas kolejny raz po sakiewce by poszło. Jak jest kasa to proszę bardzo, mogę "staroć" oddać za darmo i kupić wypasa. Ja wolę już do tego zestawu dokupić większy monitor bo w tej chwili działam na 15"lcd.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No to może ja przedstawię to z mojej perspektywy... mam wypasionego proca(w miarę :-D np: x2 lub c2d) i 7300gt. Gra na najniższych detalach bez aa i af o hdr niewspominając w ogóle, zwalnia do powiedzmy 25fps w niskiej rozdzielczości. Osobiście wolę zmienić grafę i gra czasem zwolni(przez ograniczenie procesorem) do 25 na pełnych detalach z aax4, afx16 w dodatku z hdr i w rozdzielczości 1440x900 niż kupować quad c2d(tak się to pisze?).

 

:rolleyes:

Tu masz rację, spodziewałem się takiej odpowiedzi. Wszystko zależy, w co grasz i czy potrafisz wyczuć, jaki element komputera powoduje te spadki fps. Obecnie nie natrafiłem na grę, która zadławiłaby X800gto w niskiej rozdzielczości, ale są takie gry i wiem o tym, niektórych nawet nie uruchomię. Natrafiłem na takie natomiast, gdzie semp 2,6ghz w czasie walk (ai) powoduje zwolnienia- zmiana taktowania cpu zmienia fps, zmiana rozdzielczości czy taktów gpu nie zmienia fps.

 

Ten monolog kilka postów wyżej wynika z tego, że nie mogę już dłużej patrzeć, jak 90% forum jest przekonana o jakimś skalowaniu gpu z cpu (tak tylko w 3dmarkach jest, ale to nie gry), rzekomym znikającym znaczeniu cpu w wysokich rozdzielczościach czy gadaniu, że do 8800 trzeba c2d, bo to wcale tak prosto nie jest.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Podobnie ja, zamierzam teraz przesiąść się z 6600GT na 8800GTS i z pewnością odczuję różnicę. Gdybym chciał kupić np. C2D E6600 do tej karty aby rozwinęła w pełni skrzydła to jednocześnie musiałbym zakupić do tego 2x1GB RAM bo te co mam to DDR1 i nowe mobo. W sumie wyszło by to kilka tysięcy a to zupełnie bezsensowny wydatek skoro jeszcze w tym roku wyjdą DDR3, nowe C2D i mobo z PCI-E 2.0 i do tego nowe grafy pod ten slot. Dlatego zdecydowałem, że dokupie 8800 GTS i będę jechał na tych klockach do następnego roku i wtedy powoli zmienię na najnowszy standard, tak aby później móc coś udoskonalić a nie zmieniać wszystko 2 razy.

 

Tak dla przykładu podam może HL2: Episode One. U mnie na 6600GT bez podkręcania, DDR1, proc na starym sockecie 478... w grze wszystko na full z 1280x1024 mam LCD 19" tylko co kilka minut występuje przycięciena 1s, a ogólnie gra chodzi bardzo płynnie. Dlatego nie mam potrzeby zmiany całego kompa na najnowsze cudeńka, tak jak napisałem wyżej, za tysiace, które jedym słowem gó.... dadzą, wolę wymienić tylko grafę i jechać na tym dalej.

 

Specjalnie przed chwilką jeszcze sprawdziłem jak się mają obydwa moje kompy z podpisu i co ciekawego wyszło. Testowałem na FarCry z aniso x16 (wysoka jakość) i wszystko na full z HDR z rozdziałką 1280x. W tym samym miejscu w grze na desktopie miałem 24 FPS i na lapku 24 FPS. Grafy są tej samej klasy, pamiątki jak widać, a proce to stary P4 i C2D i co? Pozostawie to bez komentarza.

Edytowane przez LCC

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Specjalnie przed chwilką jeszcze sprawdziłem jak się mają obydwa moje kompy z podpisu i co ciekawego wyszło. Testowałem na FarCry z aniso x16 (wysoka jakość) i wszystko na full z HDR z rozdziałką 1280x. W tym samym miejscu w grze na desktopie miałem 24 FPS i na lapku 24 FPS. Grafy są tej samej klasy, pamiątki jak widać, a proce to stary P4 i C2D i co? Pozostawie to bez komentarza.

jak się zadowalasz 24fps w FC...lag celownika względem myszy wtedy jest taki, że odbiera całą przyjemność z gry. Ta gra ma to do siebie, że ten lag znika przy 40-50 fps, a na tyle nie pozwoli ten p4 w otwartym terenie, bynajmniej w wielu miejscach. Wyłącz HDR, sprawdź na otwartym terenie i zobaczysz różnicę.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

jak się zadowalasz 24fps w FC...lag celownika względem myszy wtedy jest taki, że odbiera całą przyjemność z gry. Ta gra ma to do siebie, że ten lag znika przy 40-50 fps, a na tyle nie pozwoli ten p4 w otwartym terenie, bynajmniej w wielu miejscach. Wyłącz HDR, sprawdź na otwartym terenie i zobaczysz różnicę.

Nie, nie nie... :) Ja gram oczywiście bez HDRa, napisałem tak dla porównania C2D i P4. W niektórych przypadkach po prostu nawet 2 jajka nie dadzą karcie kopa tak samo jak dziadek P4 :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie, nie nie... :) Ja gram oczywiście bez HDRa, napisałem tak dla porównania C2D i P4...

A mi chodziło właśnie o to, że porównujesz c2d i p4 w ustawieniu, na którym karta zdycha (czyli HDR na niezbyt mocnej karcie), więc inaczej być nie mogło.

Ze swojej strony kończę już mam nadzieję na zawsze.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A mi chodziło właśnie o to, że porównujesz c2d i p4 w ustawieniu, na którym karta zdycha (czyli HDR na niezbyt mocnej karcie), więc inaczej być nie mogło.

Ze swojej strony kończę już mam nadzieję na zawsze.

Spoko, to podałem tylko jako przykład, że przy tym teście proc ma małe znaczenie, nic więcej. Dlatego jak niektórzy tutaj wolę zmienić grafę niż kupić wypasionego proca :)

A tak na marginesie i nie ma to związku z tematem, jeśli chodzi o mnie to wolę C2D bo po prostu na nim jest o wiele bardziej konfortowa praca i tyle.

 

EDIT: Wyłączyłem HDR i oczywiście w tym samym miejscu na C2D mam 43 FPS a na P4 mam 29... więc w tym przypadku różnica jest :)

Edytowane przez LCC

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Takie porównanie to jest trochę bez sensu. Owszem, dla osób, które nie będą grały w gry na DirectX 10, to jest to ważne (chociaż niemożliwe, żeby tak było). Karty pewnie rozwiną swoje skrzydła dopiero w grach na DirectX 10, gdzie taki 7900 GT będzie w tyle.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Takie porównanie to jest trochę bez sensu. Owszem, dla osób, które nie będą grały w gry na DirectX 10, to jest to ważne (chociaż niemożliwe, żeby tak było). Karty pewnie rozwiną swoje skrzydła dopiero w grach na DirectX 10, gdzie taki 7900 GT będzie w tyle.

bez sensu? a ile jest gier na dx10?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Takie porównanie to jest trochę bez sensu. Owszem, dla osób, które nie będą grały w gry na DirectX 10, to jest to ważne (chociaż niemożliwe, żeby tak było). Karty pewnie rozwiną swoje skrzydła dopiero w grach na DirectX 10, gdzie taki 7900 GT będzie w tyle.

Przy grach pisanych pod DX10 obie karty będą zwyczajnie nieporównywalne, ponieważ obie będą wyświetlać co innego. Może nawet dojść do paradoksu że 7900 odstawi 8800 daleeeeko w tyle, ponieważ będzie miał do obrobienia mniej efektów. Historia zna już takie przypadki, np. Far Cry naprawdę dobrze działał na kartach z DX7 np. GF2Ti, mimo tego że na owe czasy były już słabiutkie, tyle że to co się widziało na ekranie daleko odbiegało od tego co się widziało na screenach. Edytowane przez M4TEUSZ

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tak dla przykładu podam może HL2: Episode One. U mnie na 6600GT bez podkręcania, DDR1, proc na starym sockecie 478... w grze wszystko na full z 1280x1024 mam LCD 19" tylko co kilka minut występuje przycięciena 1s, a ogólnie gra chodzi bardzo płynnie. Dlatego nie mam potrzeby zmiany całego kompa na najnowsze cudeńka, tak jak napisałem wyżej, za tysiace, które jedym słowem gó.... dadzą, wolę wymienić tylko grafę i jechać na tym dalej.

No ale z ta super płynnością to bym nie przesadzał, tez miałem 6600GT i na identycznyhch ustawieniach fpsy lubiły spadac do 15.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ludzie ale wy bzdury piszecie ;| Jak się kupuje 8800 i do tego ma się semprona to nie liczcie że będzie wszystko płynnie chodzić, to tak jakby do malucha włożyć silnik z ferrari nie wymieniając przy okazji nic więcej (i może powiecie że silnik się nie zadławi) podobnie jest z kompem.

Ostatnio wymieniłem A64 x2 3800 @ 2,8GHz na E6300 i wzrost wydajności z kartą x1950xt którą miałem wcześniej był naprawdę nieporównywalny. Tam gdzie w grach się lekko przycinało, zwalniało, był efekt sttutering'u po wrzuceniu core 2 od razu zaczęło chodzić idealnie płynnie, żadnych spadków fps i do tego mogłem ustawić wyższe efekty w grach. Od proca zależy naprawdę dużo, ale nie tylko od niego - sprawny chipset, szybkie pamięci z niskimi timingami, szybki dysk to też ma niebagatelny wpływ. Nie twierdze że athlony są kiepskie, ale napewno są sporo mniej wydajne od core 2 duo, a to w połączeniu z naprawdę mocną kartą moze nie dać zamierzonego efektu (chwilowe zwolnienia, stuttering).

 

Odnośnie 6600Gt i płynnej gry w halfa 2 w 1280x1024 na full detalach :mur: - tjjjjaaaaa, a ja jestem astronautą i jutro lece sobie na marsa, ot rekreacyjnie :damage_wall: (moze dla każdego słowo "płynnie" oznacza co innego)

Niedługo się dowiemy ze do "płynnej" gry w crysis'a wystarczy celeron 2ghz, 512 ramu i geforce 2TI :mur:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Dodaj odpowiedź do tematu...

×   Wklejono zawartość z formatowaniem.   Przywróć formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

Ładowanie



×
×
  • Dodaj nową pozycję...