Skocz do zawartości
mastermind-pl

G71 Kontra R580, Czyli Czym Zaskoczą Nas Najnowsze Karty.

Rekomendowane odpowiedzi

Witajcie!

 

Czytałem ostatnio trochę w necie i na Tweaku na temat nadchodzących nastepców GF 7800GTX i ATi 1800XT. Karty te mają pojawić się na początku lutego, marca 2006. O ile dobrze wyczytałem to owy G71 ma posiadać 32 potoki renderujące, nie wiem jak sprawa ma się do ROP-ów i potoków PS, natomiast R580 ma posiadać 16 potoków renderujących i aż 48 potoków PS. Przeczytałem też że Radeon X1900 będzie dostepny w trzech wersjach: X1900XT - odpowiednik X1800XL (zamieniono L na T), X1900XTX - cytuje: macho, boss, wymiatacz ogólnie oraz X1900XTX CrossFire Edition - chyba tego nikomu nie musze tłumaczyć. Podejrzewam też że owe produkty w celach marketingowych standardowo zostaną wyposażone w 512 Mb pamięci, a niektóre może nawet w 1Gb - kto wie co ludzie wymyślą. Warto jeszcze dorzucić słówko na temat następców GF 6200 i 6600. Będą to układy oparte na chipsetach G72 i G73, niestety ich specyfikacje nie są jeszcze znane, a podobno, tak jak i G71 mają być wyprodukowane w 90nm procesie technologicznym, czyli to co ATi już ma. Będą sie nazywać kolejno GF 7200 i 7600, a więc nic nowego na temat nazewnictwa. W temacie nastepców mozna jeszcze zaznaczyć że ATi też już coś kombinuje po za najnowszym high-endem, mają pojawić się układy X1700, jako nastepca X1600. Uważam że te wszystkie działania mają jedną ogromną zaletę - mianowicie nowe karty zastąpią stare, a tamte, wcale nie słabe, wciąż częśto wymietacze będą tanie jak barszcz, podejrzewam że za 4 miesiące X1800XL będzie kosztować 1000 zł, chociaż mogę się mylić. To narazie na tyle, w między czasie jak temat będzie się "rozrastać" dorzuce jeszcze pare informacji.

 

Wypowiadajcie się i pozdro 4all

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

NIe wiem czy te 48 PS w radeoni dużo da,w końcu nvidia 'miesza 'się w gry i napewno będą pisane pod geforcy czyli większośc gier będzie lepiej chodzić na geforcach

Da i to bardzo dużo, chociaż będzie im ciężko nadrobić te 16ROPów. A czemu da? Bo nowe gry nie będą się opierały w takiej mierze na teksturach tylko na shaderach.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

...

napewno będą pisane pod geforcy czyli większośc gier będzie lepiej chodzić na geforcach

Lubie sluchac takich zabobonow :mur: Jasne wiekszosc gier jest pisana pod nV :lol: No i co z tego jak nowe gry beda tworzyly obraz poprzez shader'y to nic nV nie pomoze bo dysponujac "tylko" 32PS wypadnie blado i zadne optymalizacje nie pomoga. Jestem ciekaw jak sytuacja bedzie wygladac w nowym 3dmarku... Rowniez istnieje pytanie czy Ati zdola utrzymac tak wysokie taktowanie umieszczajac w gpu az 48PS :wink: pozdrawiam

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dzieki temu ze nowe grafiki wejda do sprzedazy starsze powinny staniec i byc w zasiegu dla normalnego gracza (normalnego w sensie zasobnosci portfela) i z tego powiinismy sie najbardziej cieszyc czym wiecej nowosci tym lepiej.

Pozdro

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Imo postęp technologiczny jest za szybki w stosunku do zmniejszającego się rozmiaru technologicznego( 0.65um?)

coś słyszałem w sieci że niby ATi ma niedługo zejśc na 80nm, a potem na 65. Podobno nawet następcy obecnych R500 mieli być w 80nm, czas pokaże.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Lubie sluchac takich zabobonow :mur: Jasne wiekszosc gier jest pisana pod nV :lol: No i co z tego jak nowe gry beda tworzyly obraz poprzez shader'y to nic nV nie pomoze bo dysponujac "tylko" 32PS wypadnie blado i zadne optymalizacje nie pomoga. Jestem ciekaw jak sytuacja bedzie wygladac w nowym 3dmarku... Rowniez istnieje pytanie czy Ati zdola utrzymac tak wysokie taktowanie umieszczajac w gpu az 48PS :wink: pozdrawiam

Hmmm...No ja bym tego nie był taki pewien....Wystarczy popatrzeć na testy kart Rx1600xt i np GF6600GT i porównac specyfikację obu kart...

Rx1600xt ma 12 PS, 4ROP`y i 5VS taktowanie 590mhz-pamięć 1380mhz

GF6600GT 8PS, 4ROP`y i 3VS taktowanie 500mhz i pamięć 1000mhz

 

Jak widac w testach mimo wyższego taktowania radeona nie osiąga on jakieś przygniatającej przewagi nad GF`em w rozdziałce 1024x768(bo w wyzszych to ograniczeniem przy obu kartach jest RAM)....

Dlatego też wydaje mi się że mimo 48 jednostek PS ni sądzę żeby r580 był szybszy od G71 który ma miec ``tylko`` 32 takie jednostki :wink:

Dodatkowo G71 ma mieć taktowanie nawet na poziomie 750 mhz a jak wiadomo taktowanie ma tez niemałe znaczenie....Przykład??r520 pomimo posiadania 16 jednostek PS jest szybszy od GF7800GTX który ma 24 jednostki PS a przewaga ta wynika głównie z wyzszego taktowania....Pozatym r580 to nic innego jak r520 z dodatkowymi jednostaki PS a jak wiadomo r520 jest zbudowany z 320mln tranzystorów....Myślę że tak duza ilośc dodatkowych jednostek PS pociągnie za sobą bardzo duży wzrost liczby tranzystorów w układzie i pewnie r580 będzie miał ich coś około 400mln(no może koło 380 mln :D ) co moze być barierą nie do pokonania jeśli chodzi o osiągnięcie taktowania na poziomie 600mhz...Tym bardziej że przecież proces technologiczny nie uleg zmianie...No ale poczekamy zobaczymy....

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@Domell

Piętą Achillesową X1600 nie jest zbyt mała przepustowość pamięci czy liczba ROPów (ich znaczenie jest dość znikome). Jest to ilość jednostek TMU. W przypadku Radeona jest ich 4, w przypadku Geforce'a 6600 - 8.

 

Podobną architekturę będzie miał podobno x1900, więc jego przewaga nad 32-potokową nVidią nie jest tak oczywista.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

a jak wiadomo r520 jest zbudowany z 320mln tranzystorów....Myślę że tak duza ilośc dodatkowych jednostek PS pociągnie za sobą bardzo duży wzrost liczby tranzystorów w układzie i pewnie r580 będzie miał ich coś około 400mln(no może koło 380 mln :D )

 

a mimi że R520 ma 320 mln tranzystorów to z dobrym chłódzeniem poszedł na 1003 mhz, więc myslę że z R580 będzie podobnie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

a mimi że R520 ma 320 mln tranzystorów to z dobrym chłódzeniem poszedł na 1003 mhz, więc myslę że z R580 będzie podobnie.

heheh...Tjaaa-wiesz na ekstremalnym chłodzeniu to i GF7800GTX osiąga blisko 750 mhz w technologii 110 nm więc jakby brać pod uwagę ekstremalny overclocking to G71 również bez trudu osiągnie zapewne 1 ghz na Gpu tym bardziej że ównież będzie on wykonany w wymiarze 90 nm......

 

 

Assassin_--->Tak masz rację rv530 jest ograniczany i to znacznie także przez jednostki TMU....Dlatego też r580 pomimo posiadania aż 48 jednostek PS wcale nie musi być wydajniejszy od G71...Pozatym z tego co czytałem to w przypadku NV ilość TMU jest równa liczbie jednostek PS( przynajmniej jest tak w przypadku GF serii 6 i 7).....

 

EDIT: mastermind-pl----->masz moze jakiegoś linka na jakim chłodzeniu r520 osiągnął 1ghz za gpu??

Edytowane przez Domell

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@Domell tylko ze wiekszosc dzisiejszych gier dalej tworzy obraz poprzez klasyczne teksturownie i dlatego wydajnosc x1600 jest na takim poziomie :) Poczekajmy na nowe tytuly ktore ujawnia sile shader'ow :-| Tylko ile mozna czekac hehe :wink: pozdrawiam

Właśnie-jak sam piszesz większośźć gier jest tworzona poprzez klasyczne teksturowanie a na gry które w zdecydowanej większości będą oparte na shaderach przyjdzie nam jeszcze poczekać tylko wiesz, gdy te ``przyszłe`` gry się ukażą to na rynku będą już układy takie jak G80 (NV50 ??) i r620...Wtedy nawet tez 12 jednostek PS Radkowi x1600xt nic nie da bo będzie tak czy tak za słaby....

Przypomina to trochę sytuację z GF6600GT które wspiera SM3.0 i wielu użytkowników kupiło tę kartę własnie dlatego że posiada wsparcie SM3.0 a jak wiemy (co widac już teraz..) i miało to zaowocowac wzrostem wydajności w przyszłości a jak jest to widzimy na przykładzie choćby Splinter Cell:Chaos Theory gdzie włączenie SM3.0 zarzyna tę kartę niemiłosiernie.... :wink: Zresztą nie tylko tę bo pozostałe karty z serii 6 też nie imponują wydajnością w tym trybie....

 

EDIT: mastermind-pl---> Zgoda tylko na jakim chłodzeniu to zostało osiągnięte...Pozatym chciałbym widzieć r520 pracującego z takim zegarem przez jakiś dłuższy czas a nie tylko do pobicia pkt w 3dmarku.....Podobna sytuacja jest z procesorami np. już dawno były przypadki osiągnięcia na P4 ponad 6 ghz i co??Dlaczego teraz nie ma procków o takich taktowaniach??

 

Pozdro 4ALL

Edytowane przez Domell

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@Domell tylko ze wiekszosc dzisiejszych gier dalej tworzy obraz poprzez klasyczne teksturownie i dlatego wydajnosc x1600 jest na takim poziomie :) Poczekajmy na nowe tytuly ktore ujawnia sile shader'ow :-| Tylko ile mozna czekac hehe :wink: pozdrawiam

No co Ty, ostatnio wychodzą same 'shaderówki'

 

to był nawet na tweaku że pojechał koleś na 1003 mhz, dawno temu, pogrzeb w archiwum to może znajdziesz, pamięc tam dał na 1980 i w 05 miał prawie 13k

W archiwum? O ile wiem arch jest z roku na rok a nie z przed 3miech.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

heheh...Tjaaa-wiesz na ekstremalnym chłodzeniu to i GF7800GTX osiąga blisko 750 mhz w technologii 110 nm więc jakby brać pod uwagę ekstremalny overclocking to G71 również bez trudu osiągnie zapewne 1 ghz na Gpu tym bardziej że ównież będzie on wykonany w wymiarze 90 nm......

Tylko zauważ, że r520 jest w stanie pracować w okolicach 760MHz na ori chłodzeniu i mając to na uwadze, przewaga w taktowaniu w stosunku do g70 jest ogromna. Sądzę, że ati nie pozwoli na pracę rdzenia x1900xt(x) na poziomie ok. 600MHz jak sugerujesz, bo byłaby to samobójcza bramka. Ta architektura potrzebuje wysokiego zegara, niezależnie od zmian jakie zajdą w x1900 w stosunku do x1800, wiem coś o tym ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Przyznam ,ze jestem zaskoczony tym co sie dzieje obecnie w swiecie kart graficznych.Takiego przyspieszenia w wydawaniu nowych produktow nigdy nie widzialem (a sledze rynek hardware od ... 1990 roku). Martwi mnie to , poniewaz naprawde ciezko bedzie teraz zdecydowas sie na zakup czegos "topowego". Najwyrazniej by osiagac najwyzsza wydajnosc i stosunkowo mala strata finansowa ,czekaja mnie 3 "przesiadki" w ciagu 6-8 miesiecy...

24 styczen - premiera R580 , 09.03. - 15.03.2006 (Cebit) - premiera G71 , 06.06.-10.06.06 (Computex Taipei) - premiera G80 ,co powinno zaowocowac pojawieniem sie nowych kart w sklepach niedlugo po tych datach.Posiadajac ta karte ,ktora posiadam (x1800xt),rozsadnie (lecz podobnie jak w przypadku samochodow czesciej kieruje sie sercem :D ) bedzie zaczekac na premiere G80 ,ktora to wniesie nowa "jakosc i wydajnosc" do kart graficznych ,pozostale dwie wydaja sie byc rasowaniem istniejacych juz ukladow i spodziewam sie wzrostu wydajnosci srednio na poziomie ok 20% wzgledem poprzednikow. Producenci tych kart zapominaja chyba jednak o jednym ,aby zakup tych kart nie mijal sie z celem musza byc na rynku gry ,ktore wykorzystaja ich potencjal (obecnie nie ma takich gier ,dla ktorej musialbym zmienic karte by odczuc wyrazny wzrost wydajnosci - 1600x1200 z aa i af oraz zastosowaniem w wiekszosci wszystkich opcji poprawiajacych ich jakosc) pomijajac fakt ,ze aby mowic z czystym sumieniem o nastepnej generacji kart oczekiwalbym wiekszego wzrostu wydajnosci.

Wracajac jednak do wspomnianych w temacie ukladow to do momentu premiery ,opieramy sie na domyslach prasowych... w miare pewne doniesienia potwierdzaja zastosowanie 48 jednostek PS w R580 ,natomiast dziwi mnie to co teraz mam okazje poczytac- ,ze nie bedzie zmiany procesu technologicznego na 80nm (nad czym ATI pracowalo juz w chwili opracowywania chipsetu RV580) .Moze to skutkowac podobnymi mozliwosciami O/C do R520 ,a wtedy tylko w PS nadzieja :) , niemniej w wiekszosci podobnych temu tematom mowi sie o GPU taktowanym w okolicach 700 MHz w "serii".

Skolei NVidia oprocz wspomnianych 32 potokow ,ktore same w sobie ,nie buduja tak wydajnosci (patrz poprzednicy : roznica miedzy podkreconym 7800 GT ,a GTX) ,zmienia proces tech. na 90nm ,co napewno bedzie sie wiazac z duzym wzrostem wydajnosci ( sugeruje sie stosowanie zegarow na poziomie 750 MHz).

 

Z jakakolwiek wiazaca ocena ,wstrzymam sie do czasu pojawienia sie rzeczonych ,a nagroda dla zwyciezcy (w mojej subiektywnej ocenie) bedzie jego zakup :D.

 

P.S. Z lza w oku :D wspominam czasy ,gdy w moim komputerze goscila 9700 PRO (ponad 1,5 roku) jak i x800xt (rowniez 1,5) ,co przy dzisiejszej dynamice wspomnianych rynkow ,wydaje sie byc "rekordem" nie do powtorzenia...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tylko zauważ, że r520 jest w stanie pracować w okolicach 760MHz na ori chłodzeniu i mając to na uwadze, przewaga w taktowaniu w stosunku do g70 jest ogromna. Sądzę, że ati nie pozwoli na pracę rdzenia x1900xt(x) na poziomie ok. 600MHz jak sugerujesz, bo byłaby to samobójcza bramka. Ta architektura potrzebuje wysokiego zegara, niezależnie od zmian jakie zajdą w x1900 w stosunku do x1800, wiem coś o tym ;)

Tak wiem że r520 może pracować z wysokimi czestotliwościami ale musisz wziąć też pod uwagę że tak duża liczba dodatkowych jednostek PS spowoduje dość znaczny wzrost liczby tranzystorów co przy bardzo wysokim taktowaniu będzie powodowac że sam układ będzie sę mocno grzał i pewnie też będzie potrzebował zasiłki coś minimum z 400W....

Jeśli chodzi o G71 to jakby patrzeć w podobny sposób jak na układy ATI ( jesli chodzi o taktowanie...) to warto też zauważyć że GF7800GTX 512 osiąga spokojnie 600 mhz na oryginalnym chłodzeniu a należy pamietac że jest on wykonany w technologii 110 nm...Zatem można sobie wyobrazić jakie częstotliwości będzie mógł osiągnąc G71-w tym przypadku 750 mhz wydaje się łatwe do osiągnięcia a zapewne będzie posiadał dużą rezerwę podobnie jak to jest z GF7800GTX (430 mhz)---->GF780GTX 512 (550mhz)....

Pozdro

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

jezeli o mnie chodzi widze to tak (imho):

- r580 z wieksza ilosci jednostek pixel shadera da widoczny wzrost framerate w grach mocno go wykorzystujacych. mam pewne tylko obawy, czy wieksza ilosc jednostek PS nie wplynie negatywnie na mozliwosci OC. nie sadze, aby wzrosla tez ilosc tranzystorow, przynajmniej znacznie - tak r520 jak i r500 maja ich wystarczajaco duzo i kto wie czy przypadkiem nie jest to kwestia uruchomienia isteniejacych juz blokow GPU

- g71, za malo obecnie wiemy, ale jest szansa, ze 5-8 stycznia nv pusci farbe na CES2006 w Las Vegas...duze szanse...obecnie nie wyglada to ciekawie, nv kuleje jezeli chodzi o wydajnosc kontrolera pamieci jak i jednostek PS i VS, zmiana technologii i taktowania niewiele moze tu zmienic. stery tez do poprawki, ale to dotyczy obu firm. jest szansa, ze seria 9x.xx fw wprowadzi cos wiecej niz framework (blehhh), ale o tym tez na CES2006 :).

ogolnie zapowiada sie ciekawie i w tym przypadku stawiam na ati :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

jezeli o mnie chodzi widze to tak (imho):

- r580 z wieksza ilosci jednostek pixel shadera da widoczny wzrost framerate w grach mocno go wykorzystujacych. mam pewne tylko obawy, czy wieksza ilosc jednostek PS nie wplynie negatywnie na mozliwosci OC. nie sadze, aby wzrosla tez ilosc tranzystorow, przynajmniej znacznie - tak r520 jak i r500 maja ich wystarczajaco duzo i kto wie czy przypadkiem nie jest to kwestia uruchomienia isteniejacych juz blokow GPU

- g71, za malo obecnie wiemy, ale jest szansa, ze 5-8 stycznia nv pusci farbe na CES2006 w Las Vegas...duze szanse...obecnie nie wyglada to ciekawie, nv kuleje jezeli chodzi o wydajnosc kontrolera pamieci jak i jednostek PS i VS, zmiana technologii i taktowania niewiele moze tu zmienic. stery tez do poprawki, ale to dotyczy obu firm. jest szansa, ze seria 9x.xx fw wprowadzi cos wiecej niz framework (blehhh), ale o tym tez na CES2006 :).

ogolnie zapowiada sie ciekawie i w tym przypadku stawiam na ati :D

Hmmm....Jesli chodzi o te kulejące PS i VS u NV to trochę dziwne....Tzn-w przypadku VS zgoda bo ATI ma wyraznie wydajniejsze jednostki VS ale przeciez w przypadku PS (przynajmniej wg wszelkich benchmarków...) to NV masakruje ATI....

Wspominasz też że być moze te dodatkowe jednostki PS to może być tylko kwestia odblokowania bloków GPU...Możliwe jednak jesli to nie byłoby to, to wydaje mi się ze conajmniej 50mln dodatkowych tranzystorów ATI musiało być dołożyć....

Jesli chodzi o G71 natomiast to jest możliwośc że te dodatkowe 8 jednostek PS też jest już teraz zaszyte w obecnym G70...Było coś o tym bodajże na forum Beyond3d.......

 

Pozdro

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Hmmm....Jesli chodzi o te kulejące PS i VS u NV to trochę dziwne....Tzn-w przypadku VS zgoda bo ATI ma wyraznie wydajniejsze jednostki VS ale przeciez w przypadku PS (przynajmniej wg wszelkich benchmarków...) to NV masakruje ATI....

wlasnie w/g benchmarkow tak jest, jednak zycie (gry ) pokazuja cos innego - PS w r520 zachowuje sie lepiej szczegolnie im wyzej taktowany, tym ma wieksza sprawnosc, a co za tym idzie wydajnosc. PS w nv ma za duzo pustych przebiegow co wynika z samej architeORT: ORT: ORT: ktury, jak i braku daleko idacych optymalizacji w samym potoku. ati jednak poszlo o krok dalej w tej kwestii i widac tego efekty.

osobiscie odnosze wrazenie, ze im wyzej g70 jest taktowany tym jego sprawnosc maleje.

 

Wspominasz też że być moze te dodatkowe jednostki PS to może być tylko kwestia odblokowania bloków GPU...Możliwe jednak jesli to nie byłoby to, to wydaje mi się ze conajmniej 50mln dodatkowych tranzystorów ATI musiało być dołożyć....

teoretycznie r520 byl na samym poczatku ukladem 32 potokowy. teoretycznie. tak wiec teoretycznie mozna zalozyc, ze dopracowali w jakis sposob projekt i wykorzystali istniejace trazystory. ale tez mogli zmienic istnienjacy juz r500, a tutaj juz mamy macierz 48 jednostek shaderow (3x16)...

 

Jesli chodzi o G71 natomiast to jest możliwośc że te dodatkowe 8 jednostek PS też jest już teraz zaszyte w obecnym G70...Było coś o tym bodajże na forum Beyond3d.......

jezeli nic nie zmienia w architekurze, tak jak wspomnialem wczesniej, to dodawanie potokow i zwiekszanie MHz nie wiele wniesie. obecnie gry hamowane sa wlasnie przez shadery i tutaj powina sie skupic optymalizacja jak i sama idea rozwoju GPU, bez tego nic nam nie da 32 potoki i setki MHz - uklad bedzie mial jescze wiecej pustych przebiegow i mniejsza sprawnosc. dlatego uwazam, ze r580 idzie w bardzo dobrym kierunku, a o g71 oprocz technologii i MHz nic jescze konkretengo nie wiadomo....

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ale czemu nikt nie wspomina, że tak naprawdę R580 to chip opracowany dla XBOXa 360. Wiadomo, że pewne rzeczy musieli zmienić bo Bill by ich na stosie spalił. :lol2: Dla tego premiera nastąpi tak szybko po R520 a X1800 to raczej taka przejściówka. :wink: A jak widać po niektórych tytułach na XBOXa 360 48PS daje radę. :D I odchodzenie od tradycyjnych tekstur na rzecz proceduralnych tworzonych przez jednostki PS i VS to wg. mnie przyszłość. Nie można wkładać tekstur w nieskończoność szczególnie jeśli żadnych efektów za ich pomocą nie uzyskamy. Tekstury staną się dodatkiem i wcale mnie nie dziwi kierunek obrany przez ATI. Zobaczycie, że i nVidia pójdzie w tym kierunku. B)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

I co stego że wyjda te karty skoro coraz mniej gier wychodzi na PC.

Ajak wychodzaą to są tak niedopracowane ( NFS MW) , że sie nie da w nie grać a wogóle nie wykorzystują nawet

połowy możliwosci chodzby takiego GF 6800.

Gdyby nie drogie gry na Xboxa 360 to kupił bym konsole i wiecej nie dokładał do pieca bo to nie ma sensu.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ale czemu nikt nie wspomina, że tak naprawdę R580 to chip opracowany dla XBOXa 360.

bo nigdzie nie ma takiej jednoznaczenj informacji :) mozna tylko sie domyslac i miec nadzieje, ze tak jest tylko nie wiem, czy na dzien dzisjeszy byloby to dobre. r500 (ten w x360) jest ukladem o architekturze unifiedshader, tzn. ze macierz jednostek shaderow moze wykonywac kod dla pixel jak i vertex shadera, obecnie mamy wydzielone bloki w gpu. imho nie zanosi sie, aby r580 byl ukladem podobnym do r500. aby w pelni wykorzystac taka architekture aplikacje (shadery) musz byc tez odpowiednio pisane, inaczej taki uklad ma mniejsza sprawnosc niz standardowa architektura z wydzielonymi blokami.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Masz rację. Z rok temu czytałem, że R580 miał mieć zunifikowane shadery na wzór X360 ale jednak dzisiaj nikt już tego nie pisze.

 

R600 - Likely to launch around the same time as Microsoft's Vista OS in late 2006, R600 is expected to be based on the unified shader architecture as seen on the R500 chip found in the new XBox 360 games console. As such, traditional measures of pixel pipelines may not be relevant.

Czyli czekamy na R600 :lol2: .

 

Skoro dalej mamy podział na PS i VS to ile będzie jednostek vertex? Wszyscy skupili się na PixelShader a o Vertex nikt nic nie mówi. :-P Chyba dowiemy się dopiero w dniu premiery. :wink:

 

EDIT

Tak się zastanawiałem i znalazłem w sieci wywiad nt. X1xx:

iXBT.com: Why didn't ATI go all the way and make unified shader processors in R520 (which we already saw in Xenos), having implemented such an effective architecture with dynamic scheduling of execution modules and separate texture units? It wouldn't have required significant changes - dynamic execution is well adapted for such an architecture. This would have solved the problem with effective access to textures from vertex shaders and dynamic balancing of vertex and pixel load. When shall we see unified shader processors in PCs - in R6XX? Will the next generation be a WGF 2 solution?

 

It's not that simple. Highly efficient schedulers of execution threads are just a small part of changes, required to implement the architecture with unified shader processors. Considering strict roadmaps for designing chips, the standard architecture with split shader pipelines was the most rational solution in this generation of graphics processors. But it does not mean that we shall not upgrade to unified shader processors in future. In my opinion, it's is very promising architecture.

 

We closely cooperate with Microsoft in developing the next generation of DirectX API and design hardware with its support. Unfortunately, I cannot comment on the terms, architecture, and any other details concerning our future solutions.

Jeśli dobrze rozumiem to piszą, że w przyszłości będzie można upgreadować do unifikowanych shaderów prawda? To mi wydaje się, że jak wyjdzie R580 to będzie miał 32PS i 16VS. A po wyjściu Visty i DX10 przeprogramują procesor na 48 unifikowanych shaderów za co użytkownicy znów ozłocą ATI, że o nich pamięta i dodaje nowe funkcje do starych kart! B)

Edytowane przez kojak_ct

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach




×
×
  • Dodaj nową pozycję...