Skocz do zawartości
DrKleiner

Nvidia G80 I Ati R600

Rekomendowane odpowiedzi

To klient powinien decydować i może decydować jaką grafę kupi. Niestety marketing i próżność robią swoje. Tak się biznes kręci niestety na osobach nie dokońca mających odpowiednią wiedzę. Gdy ludzie trochę pomyśleli i nie gonili za każdą nowością to Wielkie koncerny od GPU wtopiły by trochę kasy w nowe technologie. Jak by im nie schodziły chipy GPU z magazynów to albo zmniejszyli by cenę albo przeanalizowali by rynek i trochę rzadziej robili by premiery. Jednak magia cyferek 3DM robi swoje i każdy, a szczególnie wytwórcy GPU i producencji graf chcą mieć palmę pierwszeństwa w ilości marków. Żałosne, ale cóż taki jest obecnie Świat.

Edytowane przez Cywa

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dlaczego uważasz osoby kupujące najnowsze topowe karty za te "nie dokońca mających odpowiednią wiedzę"? Zdradzisz mi inny sposób, by móc się cieszyć najnowszymi pozycjami w 1280x1024@max + eye candies? I co w tym żałosnego? :|

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Może i nie chodzi o to ale są tacy żę mają 7800GTX i zaraz zmieniają na 7900GTX bo to lepsze. I dzięki takim mamy ciągłe wydawanie nowych kart a nie jedna karta na dwa lata i wszystko na HIGH. Przecież jak było z GeForce 4600 4200 były długo na rynku.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gość JestemNoobem

A ludzie nie mający zielonego pojęcia o kartach kupią 5200,zamiast naprzykład 4600 :wink:

 

A co nam daje wychodzenie kart co rok? Twórcy teraz już nie przykładą pracy do optymalizowania gier bo po co skoro ciągle wychodzą nowe super karty i np. Taki LA Rush z denną grafiką chodzi mi 10x wolniej niż Far Cry z super grafą.

Edytowane przez JestemNoobem

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ale jakoś nie widze powodu dla którego ma wam coś przeszkadzać w częstych premierach. Przecież i tak każdy kupuje to na co go stać. To co jak karta wyjdzie za dwa lata to będziesz te dwa lata składał kase na kolejną? Nie kapuje?! :blink: Choćby wychodziły co kwartał to nikt ci broni do głowy nie przykłada, że masz kupić nowość. Kupisz co drugą - czwartą - albo za dwa lata jak masz ochote. Nic poza uczuciem nieaktualności naszego sprzętu złego się nie dzieje. Nie można nazywać kogoś jeleniem itp za to że kupuje nowość - bo tu każdy decyduje induwidualnie zależnie od wymagań i portfela i na jak długo (w przybliżeniu) chce by ta karta wystarczyła.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ale jakoś nie widze powodu dla którego ma wam coś przeszkadzać w częstych premierach. Przecież i tak każdy kupuje to na co go stać. To co jak karta wyjdzie za dwa lata to będziesz te dwa lata składał kase na kolejną? Nie kapuje?! :blink: Choćby wychodziły co kwartał to nikt ci broni do głowy nie przykłada, że masz kupić nowość. Kupisz co drugą - czwartą - albo za dwa lata jak masz ochote. Nic poza uczuciem nieaktualności naszego sprzętu złego się nie dzieje. Nie można nazywać kogoś jeleniem itp za to że kupuje nowość - bo tu każdy decyduje induwidualnie zależnie od wymagań i portfela i na jak długo (w przybliżeniu) chce by ta karta wystarczyła.

W pełni się z Tobą zgadzam , dzięki temu ze np teraz wyszła seria 79xxx zostały obnizone ceny innych kart , teraz za cene GF7800Gt(no prawie ale niedawno tyle kosztowała ta karta) mamy karte 7900GT wydajniejszą od wiele droższego 7800GTX , prawdopodobnie cena 7800GT spadnie porządnie a przeciez to jest bardzo wydajna karta !! ja widze same zalety . O ile nv jest ok o tyle Ati nie bardzo ... tzn nie teges bo u nv SM3.0 mamy od serii GF6 i chyba G80 tez będzie takie cos posiadało , u ATI jest inaczej X800 SM2.0+ x1xxx SM3.0 R600 (chyba) SM4.0 i to mi się nie bodoba , przynajmniej u nv jest stabilniej jakoś i jak coś wprowadzą to to trzymają póki nie ma większych potrzeb a ATI albo coś trzyma za długo albo za szybko(prawdopodobnie tak teraz będzie) zmienia strasznie ktrótki zywot miałby SM3.0 , moze dla innych wydaje się to głupie co teraz wypisałem ale nie pasuje mi to. aaa i nie mówcie ze nv pospieszyła się z SM3.0 teraz się to przydaje , przynajmniej można wszystkie efekty zobaczyć w nowszych grach :wink:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

nie iwem o co Ci chodzi widziałem tetsy np FAR CRy z SM3.0 i HDR i np 6600GT dawał sobie spokojnie rade , kazda sobie da rade powyżej i też włącznie z 6600GT , zresztą HDR i AA nie zawsze działą zalezy jaki AA będzie

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Taa zwłaszcza na serii GF6 gdzie wsparcie SM3 bylo stanowczo na wyrost, które z tych kart pozwalaja na gre z HDR z wygladzaniem?? :lol2:

seria gf 6 i 7 nie obsługują FSAA+Hdr , więc się doucz

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

O to mu wlasnie chodzilo ;)

 

btw: może ktoś zrobi topik :

 

G82 vs. R620 - czym nas zaskocza nowe dzieciaki ATI i NV

:?

Edytowane przez Buu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

obsluguje. kwestia metody FSAA. przyklad - AoE3

Dokladnie, choc to kwestia wsparcia konkretnej gry, bo oficjalnie to narazie GF nie wspieraja wygladzania w HDR, ale jak wiadomo SM3 i SM4 to kolejne chwyty marketingowe.

 

Roznica glowna miedzy seria R500 a R600 bedzie polegala na unifikacji jednostek ALU, czyli bez podzialu na blok vertex i pixel, oraz na nizszych kosztach produkcji(80nm), wyzszym taktowaniu?. Z zapowiedzi wynika, ze uklad ma mocno czerpac z doswiadczen Xenos-a, dzieki czemu ma ulecz zmniejszeniu powierzchnia ukladow scalonych i upakowanie z dzisiejszych az 384M, gdzie slono kosztuje to w produkcji niestety. W Xenos sam blok 48 procesorow ALU zajmuje zaledwie ok 105M przy 240M calosci, w R580 ponad polowe zajmuje "olbrzymi" kontroler pamieci, a napewno nowa seria zostanie wyposazona dodatkowo w zintegrowany uklad eliminujacy master karty w systemie Crossfire.

Edytowane przez KiKiT

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To co tu napiszę nie są to moje słowa ale zupelnie się z nimi zgadzem :

"....Karty NV ( rodzina 6 ) od ponad roku dysponują SM3.0. Niejako przez przypadek pojawiły się pogłoski, jakoby karty Nvidii nie były zgodne z SM3.0 a nawet 2.0 . Ogłosiło to podobno laboratorium Ati po przeprowadzeniu wnikliwych testów. Tu nasuwa sie kilka refleksji. Po pierwsze może to tylko plotka . Jeśli zaś okazało by się to prawdą, może ktoś mi powie , po jaką c h o l e r ę w ogóle bawić się w unowocześnianie tych funkcji, jeżeli przez ponad rok cała armia kilkudziesięciu tysięcy fachowców i kilkudziesięciu milionów graczy nie potrafiła dostrzec różnicy między SM1.1 a SM3.0. Od dawna piszę że istotne jest to, co da się dostrzec podczas grania, a nie po skomplikowanej analizie ..W tym wypadku było jeszcze gorzej, bo zdaje się że i taka analiza zawiodła"

 

Pozdrawiam :wink:

Edytowane przez _Ran'dall_

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

KArty coraz lepsze wychodzić będą jeszcze długo!

Nawet gdzieś czytałem o nowych osobnych kartach do obliczeń fizyki, aby odciążyć procka!

Ta hegemonia zostanie przerwana dopiero jak mądrzejsi ludzie zaczną robić gry!

 

Czyli takie które wyglądają zaje... a mają małe wymagania!

Według mnie to będzie rewolucyjny engine!

 

Bo co z tego że masz ładny obraz skoro potrzebujesz do tego GRZEJNIKA Z SUSZARKĄ!

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To co tu napiszę nie są to moje słowa ale zupelnie się z nimi zgadzem :

"....Karty NV ( rodzina 6 ) od ponad roku dysponują SM3.0. Niejako przez przypadek pojawiły się pogłoski, jakoby karty Nvidii nie były zgodne z SM3.0 a nawet 2.0 . Ogłosiło to podobno laboratorium Ati po przeprowadzeniu wnikliwych testów. Tu nasuwa sie kilka refleksji. Po pierwsze może to tylko plotka . Jeśli zaś okazało by się to prawdą, może ktoś mi powie , po jaką c h o l e r ę w ogóle bawić się w unowocześnianie tych funkcji, jeżeli przez ponad rok cała armia kilkudziesięciu tysięcy fachowców i kilkudziesięciu milionów graczy nie potrafiła dostrzec różnicy między SM1.1 a SM3.0. Od dawna piszę że istotne jest to, co da się dostrzec podczas grania, a nie po skomplikowanej analizie ..W tym wypadku było jeszcze gorzej, bo zdaje się że i taka analiza zawiodła"

 

Pozdrawiam :wink:

Polecam odpalić FarCry na karcie z dx8 i na karcie z dx9 - chyba ślepy by nie zauważył różnicy. Nagięta wypowiedź...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Polecam odpalić Far Cry -ale w pierwszej wersji(nie 1,33) na dx.8.1.włączyć BumpMapping,i pare innych drobiazgów i porównać z FEAR.

Bardzo interesujące porównanie,zważywszy jakie wymagania ma FC i FEAR.

 

A SM 1.1 vs 2.0 czasem można odróznić na screenshotach,bo w grach są to często tak subtelne różnice ,że jak ktoś by nam nie pokazał różnic to większość myślałaby ,że tak ma być.

Ale trzeba przyznać ,ze w nowych grach gdzie docelowo to SM2/SM3 róznice są już bardziej widoczne,wynika to z faktu ,że SM2/SM3 pozwala więcej osiągnąc mniejszym nakładem pracy.

A naturalną rzeczą jest ,to że w chwili premiery nowych kart z nowymi możliwościami przez ok.rok nie ma żadnej gry ,która pozwala to wykorzystać.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

widziałem te info kilka dni temu i muszę przyznać, że ati będzie przez jakiś czas dominować na rynku kart graficznych, gdyż nvidia jak donoszą pewne serwisy będzie musiała przesunąć date premiery na późniejszy termin, a samo G80 ma być zmodyfikowanym G70/71 z dodanym suportem DX10 bez zunifikowanych jednostek

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

nie iwem o co Ci chodzi widziałem tetsy np FAR CRy z SM3.0 i HDR i np 6600GT dawał sobie spokojnie rade , kazda sobie da rade powyżej i też włącznie z 6600GT , zresztą HDR i AA nie zawsze działą zalezy jaki AA będzie

sory ale kolega nie ma racji.

Do grania z hdr np. w obvi czy ze wszystkimi efektami w nowego TR

nie wystarcza krecona 6800gt a co dopiero pisac o jakims 6600gt.

Kiedys szybsza karta to bylo tylko aa lub anizo.

Obecnie mozna zapomiec o wyzej wymienionych i cieszyc sie gdy

bedzie chodzila plynnie w 1024 bez zabawek w stylu aa i anizo.

Pzdr

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Oczywiscie nadal uzywaja szyny 256 bit i nastepne DDRy czego nie rozumiem.Nie dosc,ze karta przez to bedzie drozsza to jeszcze nadal te 256.Kiedy pojawia sie karty z 512 bitowa szyna pamieci ? Od premiery radka 9700 na to czekamy

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gość JestemNoobem

Oczywiscie nadal uzywaja szyny 256 bit i nastepne DDRy czego nie rozumiem.Nie dosc,ze karta przez to bedzie drozsza to jeszcze nadal te 256.Kiedy pojawia sie karty z 512 bitowa szyna pamieci ? Od premiery radka 9700 na to czekamy

Zobacz na GF 7600GT 128 bit a kopie nie jedną karte z 256bit. 512 bit? To by chyba było na wyrost bo takie pamięci byłyby cholernie drogie a wydajnościowo były by mocniejsza ale skoro gry i tak by chodziły na 256 bit bez problemowo to po co 512 bit? Chyba za bardzo patrzysz na bity :P Tu masz test 128 bit w 6600GT i 256 w 9800http://sprzet.pclab.pl/art13696-8.html Ati wygrywa w HL2 gdzie jest dużo tekstur o wysokiej rozdzielce jednak nie jest to wielka przewaga jakiej mozna by się było spodziewać po dwu krotnej liczbie bitów :wink:

 

Ja bym raczej chciał zobaczyć bardzo szybki GDDR4 ;)

A no i co do Visty i Direct 10 to chyba już warto zbierać na sprzęt zgodny z D10. Pamiętacie jak to było z 98 i XP? najpierw e nowy windos zostaje przy 98 ... ale po roku, dwóch na XP było już mnóstwo gier i mało kto myślał żeby wrócić do 98.

Edytowane przez JestemNoobem

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach




×
×
  • Dodaj nową pozycję...