Skocz do zawartości
mastermind-pl

G71 Kontra R580, Czyli Czym Zaskoczą Nas Najnowsze Karty.

Rekomendowane odpowiedzi

a co do 9700 to byl to pierwszy uklad którego konstrukcja bloku geometrycznego umożliwia kompletne przetworzenie wierzchołka lub trójkąta w pojedynczym cyklu zegarowym. I jezeli dobrze pamietam to byl pierwszym ukladem w pelni zgodnym z DX9.0

GF3 byl tak samo rewolucyjny jak 9700, zreszta byl pierwszym ukladem w pelni zgodnym z DX8

NIe pamietam doklanie wiec w tym moge sie mylic: gf3 byl chyba tez pierwszym 256bit gpu.

 

Swoja droga trzeba pamietac tez o innych ukladach niz tylko ati i nv. NP taki Savage S4 (czy savage 400) mial wydajnosc ukladu 256bit ale skladal sie z 2 ukladow 128bit ( w jednym chipie).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Zgadza się i dlatego Ty jesteś z tej karty zadowolony a ja nie, bo Ty ustawisz 670/770 a ja mogę ustawić 650/300 lub 300/650.

to co ty masz za wersje tego Xl'a ??? jakiś chyba z zambi sćiągnięty, przecieżstandart dla pamięci w x1800xl to jest 1000mhz (500ddr) a ty mówisz że możesz na max pamięc ustawić na 600 mhz (300ddr), coś mi tu nie gra...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

to co ty masz za wersje tego Xl'a ??? jakiś chyba z zambi sćiągnięty, przecieżstandart dla pamięci w x1800xl to jest 1000mhz (500ddr) a ty mówisz że możesz na max pamięc ustawić na 600 mhz (300ddr), coś mi tu nie gra...

chodzi mu o tu, ze strafa zsailania nie wyrabia rdzenia na wysokich takatach przyt wysokich pamieciach :/

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

chodzi mu o tu, ze strafa zsailania nie wyrabia rdzenia na wysokich takatach przyt wysokich pamieciach :/

Dokładnie. Szlak mnie trafia, że tego wcześniej nie zauważyłem swoją drogą niezła zagrywka, co dziwne żaden serwis testujący te karty o tym nie wspomniał. Wszędzie pisali, że PCB XL od XT różni się tylko czasem i ilością pamięci.

 

 

Jordi

Chyba jednak niemasz tych mosfet tu jest zdjęcie twojej karty http://img353.imageshack.us/my.php?image=naklejka2pf.jpg które zamieściłeś w temacie o R520 a tak wyglądają plecy XT z kompletnym zasilaniem http://img53.imageshack.us/img53/2066/gec18xt08l1gf.jpg

Edytowane przez rxg

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

GF3 byl tak samo rewolucyjny jak 9700, zreszta byl pierwszym ukladem w pelni zgodnym z DX8

NIe pamietam doklanie wiec w tym moge sie mylic: gf3 byl chyba tez pierwszym 256bit gpu.

 

Swoja droga trzeba pamietac tez o innych ukladach niz tylko ati i nv. NP taki Savage S4 (czy savage 400) mial wydajnosc ukladu 256bit ale skladal sie z 2 ukladow 128bit ( w jednym chipie).

 

Błąd- to Matrox G400 był pierwszy. Również to samo się tyczy układu 512 bit - Perhelia. Ciekawe, że na rynku dalej przeważają w 99% układ 256 bit :huh:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

GF3 byl tak samo rewolucyjny jak 9700, zreszta byl pierwszym ukladem w pelni zgodnym z DX8

NIe pamietam doklanie wiec w tym moge sie mylic: gf3 byl chyba tez pierwszym 256bit gpu.

 

Swoja droga trzeba pamietac tez o innych ukladach niz tylko ati i nv. NP taki Savage S4 (czy savage 400) mial wydajnosc ukladu 256bit ale skladal sie z 2 ukladow 128bit ( w jednym chipie).

zaden z nich nie jest 256 bitowy.

posiada jedynie taka magistrale pamieci.

to tak jak bys napisal ze pierwszym 64 bitowym procesorem

poniewaz mial 64 bitowa szyne danych i potrzebowal

do pracy 2 32 bitowych modulow.

pzdr

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Napisze coś od siebie-ale nie to ze się wtrącam :)

Kamienie milowe grafiki(IMHO)

GeForce 256-pierwszy konsumencki układ ze sprzętowym T&L.układ 256bit szyna danych 128bit

GF3(a raczej jego prekusor z NV2A z Xbox-a)-pierwsze programowalne jednostki pixel i vertex shader.Po raz pierwszy akcelerator 3d stał się programowalnym procesorem.GPU 256bit,szyna 128bit(2x64bit2 kanały)

R300(R.9700)-legendarna karta która w zasadzie sprawdza się po dziś.8 potoków 256bit/szyna 256bit i wiele funkcji DX9 ktore zagościły u NV dopiero wraz z premierą GF6xxx.

Matrox Parchelia była układem 512bitowym z szyną 256bit ale nie umieszczam jej na tej liście.

 

Co do szyny 512bit-w zasadzie jest już obecna ,a sciślej mówiąc X1800/1900 ma WEWNETRZNĄ szynę działającą jak 512bit(8x32bit-Ringbus zamiast 4 kanałowego kontrolera 4x64bit =256bit).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

imo nie ma zadnego sensu kupowac nic ponad X1800XL / 7800GT

dlaczego? bo w polowie 2006 mamy Viste i DX10

 

na dokladke tylko zacytuje za beyond3d.com

"Nvidia provided some updates on its near-term product strategy at a

conference with financial analysts. While the first half of next year

will focus on introducing updates for the current GeForce 7 generation

- including the 90 nm model G71 with up to 750 MHz core clock and the

entry-level chips G72 and G73 - the successor of the 7800 will be

commercially available sometime in the second half of 2006.

 

Not surprisingly, G80 will be tailored to run with Windows Vista and

its Aero Glass functionality. The new graphics processor will

transition to DirectX 10 and support Shader Model 4.0, Nvidia said. It

was indicated that the current G7x generation will be available for

some time, serving the entry-level and mainstream segment. G80 promises

to bring a completely new processor architecture."

wszystkie obecne karty, ktorych moc jest tak ogromna ze w

praktyce niewykorzystana (GTX 512 nie wspominajac juz o 1900XTX)

beda juz za stare w dniu wyjscia Visty (DX10, Shared model 4.0)

 

i pytam zatem jaki jest sens ich kupowania? imo zaden

(no dobra - jest wyjatek - "mam OGROMNY monitor i gram w kosmicznych rozdzielczosciach")

Edytowane przez Cherub

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

tez doszedlem do takiego wniosku, mialem zamiar wymienic swoja X1800XL na 1900XT, jednak zrezygnowalem. X1900XT mial bym za troche ponad 1700zl (niecale 540$ z przesylka), teraz byla by kwestia sprzedania mojej mega krecacej sie x1800XL i ile musial bym doplacic, moze udalo by mi sie sprzedac karte za 1500zl wiec generalnie nie musial bym wiele doplacic, ale przemyslalem to i stwierdzilem poco???Wszystkie gry narazie mi smigaja w max detalach z 4xaa 8XAnizo HQ i minimum 1280x1024 (starsze tytuly w 1600x1200)

wiec.....

 

Poczekam na R600, albo nowa NV (choc znajac zycie kupie ATI ;)), a zdecydowalem ze teraz zmieniam procka na X2, czas na dwu jajowca :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

imo nie ma zadnego sensu kupowac nic ponad X1800XL / 7800GT

dlaczego? bo w polowie 2006 mamy Viste i DX10

imho bledne rozumowanie. sadzisz, ze z dniem pojawienia sie nowego windowsa, nastanie koniec swiata i kalendarz zacznie biec od nowa? nic sie niw wydarzy, znowu tylko marketing nabierze wiatru w zagle. z dnia na dzien nie dzieje sie rewolucja w IT. developerzy od tak nie przeskocza nagle na nowego dx bo maja nowe windowsy. bede nowe uklady, ale bedzie to wygladalo dokladnie tak jak byl swego czasu z premiera gf6800, i co ? swiat sie skonczyl? imho sadze, ze nawet jezeli nowy win sie pojawi pod koniec tego roku, to o jakies "przestarzalosci" obecnego sprzetu bedzie mozna mowiec nie wczesniej niz za kolejny rok, a to imho normalna kolej rzeczy. tak wiec luz i nie panikowac :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No tak. Ale obecne karty w zupełności wystarczą na rok. Więc nie ma powodu do ich wymiany chyba, że ktoś traktuje to jako hobby. :) Aaaa. I nie zapominajmy, że zbliża się nowy FarCry z PS4.0 tak więc sens wymiany na coś kompatybilnego wskazany. ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ciekawe jaka cena będzie tego GF7900 ... Imho te nowe karty nie robią na mnie jakiegoś miażdżącego wrażenia... cały czas czekam na taką chwilę aż wyjdzie jeden "prawdziwy król" który zaskoczy nas wszystkich technologicznie jak i wydajnościowo - ciekawe czy to wogóle nastąpi czy będzie dalej tylko taki "wyścig szczurów" ...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No tak. Ale obecne karty w zupełności wystarczą na rok. Więc nie ma powodu do ich wymiany chyba, że ktoś traktuje to jako hobby. :) Aaaa. I nie zapominajmy, że zbliża się nowy FarCry z PS4.0 tak więc sens wymiany na coś kompatybilnego wskazany. ;)

tak jasne, zblize sie WIEEEELKIMI krokami :lol: jak na razie to nie ma sie co spieszyc, karte sie kupuje na teraz, a nie na za X czasu, bo gry ktore wtedy wyjda i chiałoby sie w nie pograc komfortowo beda wymagały duzo wiecej od karty.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

imo nie ma zadnego sensu kupowac nic ponad X1800XL / 7800GT

dlaczego? bo w polowie 2006 mamy Viste i DX10

źle rozumujesz, jak tu któs napisał to nie nastapi nagle rewolucja, a karty wystarczają nawet na 2 lata żeby (high endy) grać na max z aa i aniso (ale w miare czasu coraz mniejszym) i przy jakiś normalnych rozdzielczościach. R480 już dość dawno a nadal da się pograć w najnowsze tytuły z aa i aniso (choć nie zawsze) a jakiś ludzkich rozdzielczościach, jak widze testy kart graf. na rordzielczościach 1920x1280 albo i wyzej to mi się odechciewa dalej czytać, nawet starsze kary (8 potokowe, 12...) dają często rade tylko z wyłączonymi bajerami a przeciaż chodzi o to żeby pograć i pooglądać troche fajnych widoczków, ale bez przesady. jak dla mnie to teraz najkorzystniejszym układem od ati jest x1800xl, jest tani i dobrze się kręci i ciągnie wszystko, myslę że tak samo będzie z x1900xt za jakieś poł roku

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@mastermind-pl tym razem druga czesc wypowiedzi to bzdura :D Nie chce pisac co i dlaczego ale przestan szerzyc ciemnote ,bo robisz sie irytujacy :?

 

Co do dyskusji to tak jak juz ktos napisal nie bedzie rewolucji tylko powolna ewolucja ,tak jest od zawsze :) pozdro

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@mastermind-pl tym razem druga czesc wypowiedzi to bzdura :D Nie chce pisac co i dlaczego ale przestan szerzyc ciemnote ,bo robisz sie irytujacy :?

 

Co do dyskusji to tak jak juz ktos napisal nie bedzie rewolucji tylko powolna ewolucja ,tak jest od zawsze :) pozdro

dobrze, to forum każdy możę wyrazić swoje zdanie, teraz powiedz panie wszechwiedzący co jest bzdurą, chętnie wysłucham krytyki

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@mastermind-pl tym razem druga czesc wypowiedzi to bzdura :D Nie chce pisac co i dlaczego ale przestan szerzyc ciemnote ,bo robisz sie irytujacy :?

 

Co do dyskusji to tak jak juz ktos napisal nie bedzie rewolucji tylko powolna ewolucja ,tak jest od zawsze :) pozdro

:lol2:

 

Części pierwszej twojej wypowiedzi nie sposób skomentować, bo tradycyjnie jesteś irytujący :-|

 

Natomiast część druga to bzdura :D Nie chcę pisać co i dlaczego, bo jeśli swoją przygodę z komputerami rozpoczynałeś niedawno, to i tak do ciebie nic nie trafi. Czasy CLAP'a, a wcześniej voodoo1 to była rewolucja. Czasy ewolucji nastały góra 3-4 generacje kart temu.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Natomiast część druga to bzdura :D Nie chcę pisać co i dlaczego, bo jeśli swoją przygodę z komputerami rozpoczynałeś niedawno, to i tak do ciebie nic nie trafi. Czasy CLAP'a, a wcześniej voodoo1 to była rewolucja. Czasy ewolucji nastały góra 3-4 generacje kart temu.

nie uważąsz że to jest czepianie? łapanie za słówka, bo sie nie zgadzam?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie, to zwykłe poprawianie, ot, by nie wprowadzać innych userów w błąd. Ale macie rację, był do o/t, więc koniec tematu (mimo, że ostatnie strony to "wspominki" starych kart).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

W sieci pojawiły się nowe informacje o kolejnym układzie graficznym firmy nVidia - mowa o G80. Oczywiście jak na razie informacje te należy traktować z przymrużeniem oka. G80 ma zostać po raz pierwszy przedstawiony w czerwcu podczas wystawy Computex. Sam układ będzie produkowany przez TSMC w technologii 80 nm i ma posiadać ujednolicone jednostki Shader oraz obsługę standardu Shader Model 4.0. Taktowanie rdzenia ma wynosić około 800 MHz - będzie on zawierać 64 ujednolicone jednostki Shaderów, 32 TMU i tyle samo ROP. Jeśli chodzi o pamięci to karty z tym układem mają korzystać z kości GDDR4, produkowanych przez Samsunga i taktowanych zegarem około 900 - 1000 MHz DDR.

 

ŹRÓDŁO

 

Zaczyna się pogoń za megahercami ? :lol:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach




×
×
  • Dodaj nową pozycję...