Skocz do zawartości
Caleb

Geforce 8800 GTX / GTS

Rekomendowane odpowiedzi

Jesli następowała grobowa cisza tzn , że albo nie testował nikt tam tego w sli , albo sli g daje ;/.

no tak sie sklada, ze SLI daje tutaj sporo, prawie 2x wiekszy framerate ;) podejrzewam, ze w patchu 1.2 shadows bedzie juz normalnie dzialac.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gość Andare

No faktycznie, nie na sterach od guru bo ściągam z nvidia.pl nowe sterowniki na bieżąco. Gram w pełną 1.0, potem ściągnąłem łatkę. Staram się mieć uaktualnienia do gier na bieżąco. Wiem, że na ultra to przycinało potem już nie testowałem (po wgraniu patcha). Post pod twoim jest wyjaśnione, że cienie już nie chodzą na ultra więc wyszło na moje, na tych nie dało się grać w tę grę. :) Ale nie ma się co spierać, bo nie od tego są takie fora :)

W sumie to oboje mielismy racje :D Ja mowilem, ze jest plynnie i sie nie mylilem tyle, ze nie wiedzialem, ze opcje ultra to nie ultra :D Swoja droga jak wy rozrozniacie cienie high od ultra? Przeca to kompletnie nie widac roznicy, a skoro nie widac roznicy to po co przeplacac :P

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Z tymi cieniami na ultra to dziwne anomalia u mnie. Otóż kiedy mam wszystkie suwaki w prawo (ustawiłem tak zaraz na początku gry na demku i później na full 1.0) to oglądam pokaz slajdów (jakieś 1/2s :( ),ale wystarczy,że odpale gre z niższymi ustawieniami i po chwili/wyścigu przełącze na ultra to już moge grać z fps na poziomie 27 (+/- 5 fps)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gość Andare

OK, porobilem screeny. Wszystko na ultra w 1280x1024 wlacznie z cieniami, ktore rzekomo sa high choc ja tam nie widze roznicy. W kazdym razie oto wyniki, przy czym wezcie pod uwage fakt, ze fps spadl o te pare klatek w momencie robienia screena. Juz chyba blizej sie nie dalo zblizyc kolesi tak by wszystkich pokazac :P

 

Dołączona grafika Dołączona grafika Dołączona grafika Dołączona grafika Dołączona grafika

 

Jesli da sie wlaczyc jakis benchmark pokazujacy specyfikacje mojego komputera i wyswietlajacego detale to z checia go wlacze, zeby pokazac, ze to nie jest np sli 8800gtx tylko zwykly 8800GTS 320. Cienie high czy ultra, w kazdym razie detale widzicie wyraznie, przynajmniej wyraznie widac rozdzialke, ustawienia detali oraz to, ze cienie nie sa na medium bo roznice miedzy high a medium to nawet ja rozrozniam :P :D

Edytowane przez Andare

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Czyli jaki z tego morał zamiast dual core lepiej celowac w sli . Jeszcze lepiej w to i tamto .

No nie wiem. U mnie pod Vistą takie użycie proca w tej grze:

 

Dołączona grafika

 

U mnie bez różnicy, czy 1024-x768, czy 1280x1024 - praktycznie te same (marne) fps'y

I jest to jeden z powodów dla których planuję przesiadkę na intela.

 

To nie wątek o grze, ale korzystając z okazji, może bo ktoś podał jak to uzycie cpu wygląda u niego. Rzeczywiście proc nie wyrabia, a może to wina Visty?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Na tym wyścigu co andare zapodał screeny to spada mi do 19 fpsów w tych detalach co on dał (na poczciwym 3700+ ). Więc nie ma co rewelacja jak cholera te 6 fps więcej na c2duo - nie ma jak pożądna optymalizacja pod dwa jajeczka by codemasters więcej chyba jednak da tu sli . Sprawdzę sobie jutro na c2duo + sli , ale szkoda że na kompie z 3700 brak sli tak bym miał porównanie.

Edytowane przez Gregor1230

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gość Andare

Na tym wyścigu co andare zapodał screeny to spada mi do 19 fpsów w tych detalach co on dał (na poczciwym 3700+ ). Więc nie ma co rewelacja jak cholera te 6 fps więcej na c2duo - nie ma jak pożądna optymalizacja pod dwa jajeczka by codemasters więcej chyba jednak da tu sli . Sprawdzę sobie jutro na c2duo + sli , ale szkoda że na kompie z 3700 brak sli tak bym miał porównanie.

1) Jak mowilem, w momencie robienia screena spadalo o ok 2klatki wiec do wiekszosci screenow dodaj dwie klatki.

2) Nawet jakby nie spadalo to 19 a 25 to wg mnie bardzo duza roznica. Znacznie wieksza niz miedzy 30stoma a 45ma. Chociaz to wiecej to bardziej to odczujesz w tych szesciu w wiekszosci gier

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Pokazałbyś lepiej zużycie proca ;)

A co do frapsa, to nie wiem, czemu tak niektórzy się tak zastrzegają. U mnie spadki fps są przy zapisie obrazka, a nie w momencie jego robienia. Jak zechcę zrobić szybą serię fotek, to kolejne mają coraz mniej fps, ale pierwsza ma dokładnie tyle, ile w realnej grze.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Andare zauwaz , ze jest to mylne niby spada fps w momencie nacisniecia screenszota ale na zdjęciu zostaje właśnie fps rzeczywisty wiec nie trzeba dodawac tych 2 fpsów - bynajmniej tak ja zaobserwowałem.

Pozatym róznica tych 6 fps przy 1 jajo vs 2 to żenada. Powinno być tak u mnie te 19 a u Ciebie tak około 30-32 wtedy mozna by mówić o dobrym silniku.

Edytowane przez Gregor1230

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gość Andare

Pozatym róznica tych 6 fps przy 1 jajo vs 2 to żenada. Powinno być tak u mnie te 19 a u Ciebie tak około 30-32 wtedy mozna by mówić o dobrym silniku.

Na jednym screenie masz 31 :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gość Andare

No to pewnie w tym miejscu bede miał około 26 ;) albo więcej. Ciężko powtórzyc taki sam układ aut.

Ja mialem tego proca co Ty tylko ze chodzacego na 2.8ghz i na tej grafie mialem w wersji 1.1 od 18 do 25 fpsow wiec zapewne masz racje :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gość Andare

Tak czy owak nadchodzi era sli i trzeba się z tym powoli pogodzić.

SLI jest dla osob chcacych grac w wyzszej rozdzialce niz 1280x1024. Do takowej wystarcza nam nasze grafy

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Mnie martwi co innego, dzisiaj przeczytałem gdzieś, że Cryzys wyjdzie w połowie listopada a nie września jak to wcześniej podano. Czyżby producent gry przesunął premierę czekając na to aż wyjdą następcy obecnych gf8800 ? To może zastanawiać użytkowników obecnych 8800 jak ta gra będzie chodzić na ich kartach. A może to tylko moje chore wywody? :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Przecież była parę postów wcześniej informacja, że Crysis był testowany na laptopie z 8700 na pokładzie i gra chodziła miodzio. Nie wiem czy był tam link, ale też o tym gdzieś czytałem.

Po tym teście nie boję się już tej gry.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dzień dobry, cześć i czołem.

 

Mam zamiar zmnienić procek na 6850 lub Q6600. Z powodu gier, wybiorę raczej ten pierwszy (FSX lubi więcej Mhz)

Poradźcie czy w moim przypadku (monitor 1680x1050 i zamiłowanie do AA i AF) sensowaniej będzie dokupić drugą 8800GTS 640 czy zmienić na jednego GTX? (dwa za drogo)

 

W obu przypadkach muszę zmienić mobo i raczej kupię wersję SLI (nawet dla jednej karty- przyszłościowo). Wybrać 650i czyl 680i?

 

Na podstawie wykresów z tomshardware dotyczących wydajności w popularnych grach, to w 1xGTX da mi 31% przystosu w 1680x1050 ale 2XGTS już 61%. Ale to się tyczy gier obecnych na rynku. Stąd moja obawa czy tandem GTS'ów nie padnie w listopadzie na Crysisie...

 

Czy biosy w kartach muszę być takie same, żeby SLI działało? Rozumiem, że muszę oczywiście kupić takiego samego Leadteka.

 

Będę wdzięczny za wszelkie sugestie. Jakby ktoś mógł sobie pozwolić na mały OT to niech napisze polecane mobo ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dirt 1.0 w Ultra chodzi plynnie (nie spada ponizej 35 fps) na

E6420@3.53ghz 2x1GB i 8800GTX@630/1060 ze wszystkim na maks i w rozdzielczosci 1680x1050.

Gorzej z Lost Planet :(

 

p.s: Jesli wlaczacie w grach AAx4 i jednoczesnie wymuszacie w sterownikach, tracicie fpsy. Sprawdzone empirycznie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A ja mam pytanie i zależy mi na szybkiej odpowiedzi.

 

Czy jest taka karta jak Gigabyte GF 8800GTS z pamięcą 256MB? I jak bardzo różni się od swojego imiennika z 384MB (bo różnica to przeszło 300zł)? :mur:

 

Szukałem na google, a jak znalazłem tylko 1 stronę, to link przekazywał do firmy XFX <_<

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A ja mam pytanie i zależy mi na szybkiej odpowiedzi.

 

Czy jest taka karta jak Gigabyte GF 8800GTS z pamięcą 256MB? I jak bardzo różni się od swojego imiennika z 384MB (bo różnica to przeszło 300zł)? :mur:

 

Szukałem na google, a jak znalazłem tylko 1 stronę, to link przekazywał do firmy XFX <_<

Takie karty nie istnieją, gdzie ty to znalazles? :blink: Blad w opisie bankowo

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Dodaj odpowiedź do tematu...

×   Wklejono zawartość z formatowaniem.   Przywróć formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

Ładowanie


×
×
  • Dodaj nową pozycję...