Skocz do zawartości
cavarr

Geforce 8800GT 256/512MB

Rekomendowane odpowiedzi

Podjąłem djecyzje:P sprzedaje.

Pytanie tylko (zgubiłem się) OCB z tym PCIE 2.0?

To jest kompatybilne w stecz? wejdzie taki 8800gt na moja plyte:>? (na 99% obstawiam ze tak bo chyba nie ma jeszcze plyt z pcie2.0?)

pzdr

ps. ktos chce kupic karte z siga;P?

Tak, jest kompatybilne wstecz

Czy po rzucie okiem dobrze zrozumialem:

 

mamy karte wydajniejsza od GTS za mniej niz dziewiec stowek

:?:

 

Chyba ze gdzies padaja mi galki...

Wygląda na to, że TAK :-P , ale nowy GTS powinien być nieznacznie szybszy Edytowane przez cavarr

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ewentualnie nawet jeżeli będzie to słabsze od starego 88GTS 640MB (w co wątpię), to napewno nie na tyle, żeby warta była dopłata ~400zł do starego GTS'a... Choć stary GTS może stanieć do poziomu GTS 320MB, w miejsce jego ceny -> nowy GTS.

Oraz jak GT okaże się wydajniejszy/podobnie wydajny co stary GTS i faktycznie cena ustabilizuje się na poziomie ~850zł za 512MB -> oj będzie ciekawa sytuacja na rynku części używanych :).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

rewolucja cen na rynku DDR2 sie dokonała,może czas juz na karty graficzne :D.8800GT bedzie dobrym nastepca 8600GT który wymieka w wyższych rozdzielczosciach,a panorama wymaga wydajnej karty do wysokiej rozdzielczosci wiec NVIDIA chyba znowy sie uda wypuscic na rynek hit

Edytowane przez naxt

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Odkąd wyszła na jaw informacja o 16TMU, zamiast 24 to obstawiam na 70%, że GT będzie wolniejszy od GTS.

 

W zasadzie jedynym argumentem przemawiającym, za tym, że bedzie wydajniejsza są shadery.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Odkąd wyszła na jaw informacja o 16TMU, zamiast 24 to obstawiam na 70%, że GT będzie wolniejszy od GTS.

 

W zasadzie jedynym argumentem przemawiającym, za tym, że bedzie wydajniejsza są shadery.

kurde testy w 3mdmarku, w grach... wolniejszy? Hmmm tego sie obawiam:|

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

szkoda tylko ze nie bedzie obsługi triple SLI, zarezerwowanej dla high-endu, dwie karty 8800 GT rozgniotą ULTRA co przy cenie nawet ponad 800 zł jest o wiele lepszym pomysłem, gdyby mozna jeszcze jedna taka podpiac to juz mogł by byc niezly sprzecior za nie duze pieniadze, poki co nie ma jeszcze w sprzedazy odpowiednich plyt głownych ale za moment juz beda, dlatego uwazam ze jest to wredny ruch ze strony nvidii, umozliwiajac takowe wsparcie tylko kartom z najwyższej połki, cenowej oczywiscie bo miedzy niebem a ziemia to prawde mówiac wiecej w tym wszystkim marketingu jak prawdziwej wydajnosci, czy myslicie ze takie GT nie sprosta oczekiwanim rynkowym?

biorąc pod uwage nawet GTX to jest to duzo bardziej oplacalny zakup, a ze tam teoretycznie ma tysiac czy 2 mniej punktów w benchmarku to o niczym nie swiadczy, nie wiem nawet czy róznica bedzie w grach widoczna, nie wiem czy beda to wielkosci rzedu kilku fps ale wiem napewno ze nie kilkunastu, w normalnych rozdzielczosciach rzecz jasna:D zobaczymy co przyniesie 9800 bo jesli chodzi o serie 8, to wybór dla mnie jest jeden--------> tylko GT, tak jak mówie szkoda ze nie ma wsparcia dla triple sli, bo zdeklasowalo by to najdrozsze produkty Nvidii ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Kurde juz sie nie moge doczekac tej karcioszki :D Juz nie wyrabiam na moim marnym 7600GS :D Jakby ktos chcial go zakupic ode mnie to pare dni po premierze 8800GT pewnie bedzie zmiana :D Hmm, wystarczy ze wydajnosciowo GT bedzie lepsza od GTS i bioreee :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Odkąd wyszła na jaw informacja o 16TMU, zamiast 24 to obstawiam na 70%, że GT będzie wolniejszy od GTS.

W zasadzie jedynym argumentem przemawiającym, za tym, że bedzie wydajniejsza są shadery.

Upraszczając, nie liczy się ilość a jakość. GTS posiada 20 "sztuk", ale ledwo sobie radzi w konkurencji z R600, które ma 16, w dodatku nieco gorzej wyposażone. Procesory SP są najważniejsze, dzięki temu można swobodnie podciągnąć wydajność do poziomu najmocniejszego G80. :D Edytowane przez morgi

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jakość? W przypadku TMU? :f

 

Wole mieć 24 "wolne" (lol) TMU niż 16 szybkich. :P Bo ich wydajność jest uzależniona od taktowania i w uproszczeniu na podstawie liczby cykli i ILOŚCI TMU wyliczana jest wydajnośc wypełniania (texelowania).

 

Pozatym GTS ma 24, a nie 20 TMU.

 

 

Znaczenie dużej liczby jednostek ROP maleje wraz z coraz czesciej stosowanym multi texturingiem, ale TMU muszą być liczebne, bo niby kto wykona texturowanie jeszcze przed rasteryzacją jak nie one?

 

Ale faktycznie nawet jakby ich było 512 (tych TMU) to nie przyśpieszy nic, jeśli SP będzie zbyt mała ilość (obecnie gry ^_^ wykorzystują nieco ponad 64 ;]).

 

 

Btw, zastanawiam się czy NV i ATi nie mieli pomysłu na stworzenie w GPU oddzielnych bloków, zajmujących się zaawansowanym oświetleniem (global illumination z fotonami oraz kaustyką i wyliczaniem IOR). Sprawdziłoby się coś takiego?

Niedawno myślałam, że GPU będzie musiało się tym zajac, ale widzę, że twórcy gier coraz sprawniej emulują te efekty uzywając innych technik na osiągnięcie miękkich cieni, czy zaciemnień w rogach pomieszczeń.

Edytowane przez Pussik

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

a czy magistrala (tylko 256 bit) nie będzie za cienka do grania w wyższych rozdziałkach z AA ?

Jasne ze nie...

 

Ustawcie sobie w swoich gts'ach pamiec tak zeby miala taka sama przepustowosc jak GT to zobaczycie...

 

JAk mialem 8800GTS to troche bawilem sie w sprawdzanie ile daje krecenie pamieci, a ile krecenie rdzenia :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

DX10 wprowadza obsługę 4096x4096, nie wątpie ze graficy zaczną z tego niebawem korzystać.

 

Może nie do typowych textur, które się kafelkuje, ale do takich stosowanych do unwrapa postaci, budynków czy pojazdów. Gdzie na jednym jpg`u musi być materiał dla wielu powierzchni.

 

Dołączona grafika

Dołączona grafika

 

 

 

 

 

Dołączona grafika

To niebiesko różowe to normal mapa (tkai dużo lepszy bump mapping), od jakis 2 lat używane w grach. Dzięki wykorzystaniu trzech współrzednych RGB można ustalić położenie pixela w przestrzeni x, y, z.

 

Robi się model high poly, powiedmzy 1mln, wypala normal mape programem 3D, a następnie modleuje się prawie identycnzy model, ale powiedmzy 10k poly i nakłada na niego wypaloną texture. Efekt? 10k model wyglądający prawie tak szczegółowo jak ten z 1mln. Twórcy Unreala 3, z rok temu pokazywali to bardzo klarownie na przykładzie jednej z postaci.

 

 

Dołączona grafika

 

 

Generalnie to i tak narazie nie mamy nic stworzonego od podstaw dla DX10. :) A z doświadczenia pracy przy grach wiem, jak wiekszość (wszyscy poza kilkoma o których się wszędzie pisze) jest dośc konserwatywna i pragnie trafić do jak najszerszego grona odbiorców, a nie entuzjastów mających minimum 2 GPU w kompie, za 1500zł każde.

Edytowane przez Pussik

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

no tak w viście na DX10 dodadzą wieksze tekstury, lepszy dym i cienie a wydajność spada na pysk

oni to nazywają postępem technologicznym :evil:

p.s.

w zmodowanym Oblivionie mam (niektore) teksturki 4096x4096 na DX9, jakos to biega ale bez 4GB ramu nie podchodzić ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jak informuje serwis Fudzilla, potwierdził się czarny scenariusz dotyczący G92. Wygląda na to, że najnowsze dziecko Nvidii nie będzie wspierać nowych bibliotek Microsoft DirectX 10.1, ani co z tym idzie Pixel Shader 4.1. Nie wiemy jeszcze jak zaszkodzi to samemu procesorowi graficznemu. Jednak patrząc z marketingowego punktu widzenia, cenowy konkurent z obozu ATI – RV670 obsługiwać ma dane biblioteki w najnowszych wersjach. Co w szczegółach technicznych z tego wyniknie? Przekonamy się już w najbliższych tygodniach, premiera GeForca 8800GT zapowiedziana jest na 29 października, a chip RV670 najprawdopodobniej w odmianach Radeon HD 38xx ujrzy światło dzienne (przynajmniej oficjalnie) 15 listopada-in4 ;(

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

I bardzo dobrze! Brak 10.1 niema znaczenia a może wpłynie na ceny przez tą marketingową "słabość"

Równie dobrze o kant d.... można rozbić sobie DX10 w kartach serii 8 a marketingowcy wciskają głupkom jakieś 01 po przecinku kiedy nikt na oczy nie widział gry w całości pisanej w DX10. A przekonają się wszyscy na co wydali pieniądze jak będą oglądali crysisa w DX10 i mówię tu o oglądaniu bo pograć to se będzie można... w menu.

Edytowane przez Keniger

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Równie dobrze o kant d.... można rozbić sobie DX10 w kartach serii 8 a marketingowcy wciskają głupkom jakieś 01 po przecinku kiedy nikt na oczy nie widział gry w całości pisanej w DX10. A przekonają się wszyscy na co wydali pieniądze jak będą oglądali crysisa w DX10 i mówię tu o oglądaniu bo pograć to se będzie można... w menu.

Dobrze prawisz :!: :wink:

 

Też się przymierzam do zakupu 8800GT ale nie dla DX10 :razz:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Dodaj odpowiedź do tematu...

×   Wklejono zawartość z formatowaniem.   Przywróć formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

Ładowanie


×
×
  • Dodaj nową pozycję...