Skocz do zawartości
mastermind-pl

G71 Kontra R580, Czyli Czym Zaskoczą Nas Najnowsze Karty.

Rekomendowane odpowiedzi

Inna sprawa ze premiera G80 jest "blisko" bo za 3 miesiace, a GTX512 bylo "tylko" odpowiedzia na R520 po 3 miesiacach liderowania GTX256. Skoro XTX jest o te ok. 10-20% szybsze od GTX512 to by go pokonac wystarczy...podkrecic stare G70 przy nizszych kosztach(90nm), by przez pare doslownie miesiecy cieszyc sie znowu minimalna przewaga nad konkurentem. Z drugiej strony nVidia moze pokusic sie o 32potokowca, ale za jakas kosmiczna cene i zaledwie na kwartal by przesiasc sie na zupelnie nowa architekture...zbyt duze koszta. G71(G70 po OC) spokojnie przy 650MHz dogoni R580, ale jak jest naprawde okaze sie w Reichu za 2 tygodnie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

7900 gtx będzie wydajnijeszy i o to nie ma co sie bać;D:) ... czy będzie ciikawszą propozycją... bardzo zależy od Kasy i ilości błedów Nvidi;) (najlepiej aby ich w ogule nie było) ;P Ja osoboscie posiadam x1900 xtx i chyba zmienie na 7900 gtx jak nie bedę musiał zawiele dopłacić do tej wymiany;)

Pozdrawiam

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

wedlug tego zrodla, 7900 GTX ma kosztowac w granicach $499 tylko! wiecie co to oznacza dla slabszych kart?:)

takze chyba nie musze wspominac w takim razie, ze karta prawdopodobnie nie bedzie tak wydajna jak x1900XTX, poniewaz "raczej" nie bedzie miala 32 "potokow".

Edytowane przez alcapone

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Fakt, ale cena/jakosc tez ma ogromne znaczenie i tutaj jesli bedzie to karta o wydajnosci zblizonej albo minimalnie mniejszej, gdzie lekkie OC zniweluje te roznice to przy tej cenie startowej bedzie i tak hit. Chyba do glosu w obu firmach dochodza pragmatycy, a nie ciagle nienasyceni inzynierowie-testerzy, ktorzy kosztem ogromnych srodkow pokazuja na co ich stac i kto jest lepszy. Sa tez glosy, ze nVidia nieco przeinwestowala(przejecie ULI, nowa linia GPU, chipsetow do mobo, komorek i problemy z terminowymi dostawami tych chipow, ogromne wydatki reklamowe) w 2005 i szuka skutecznej metody zwiekszenia zarobkow mniejszym kosztem, co nie znaczy ze sa jakies problemy z plynnoscia, wrecz przeciwnie. U ATI czynnik o tyle jest inny, ze gros dochodow wlasnie idzie z nowych rynkow: konsol(Xbox360) i lawinowo rosnacych udzialow w rynku mobo i mobile.

Edytowane przez KiKiT

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Prawdopodobnie bedzie miala 24 potoki... ale zauwazcie na testy X1900 xtx vs 7800 gtx 512 mb w wiekszosci przypadkow roznica nie jest wieksza niz 10%... (chodz wiadomo bywa wieksza!!! Fear to 50% !!! ), a przeciez taktownie o 100 mhz wieksze na rdzeniu robi swoje:) do tego napewno jakies dodatkowe modyfikacje w architekturze dodadza jeszcze pare procent i karta bedzie porownywalna conajmniej do ATI (moim zdaniem bedzie tak ze momentami bedzie wydajniejesza tam gdzie PS sa malo wykozystywane a tam gdzie sa potrzebnew ogromnych ilosciach bedzie sporo wolnijesza od ATI) a bedzie miała ta przewage ze bedzie miałą PEŁNE wsparcei dna SM 3.0 (a nie jak ATI ze jedna rzecz sobie zminili i kazda programistom robic to inaczej... to juz nie mozna uznac za pełne wsparcie;P... a za taka kase zada sie raczej obslogi wszytkich nowosci!!!)

Edytowane przez quinki

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A nie jest tak ze ATI tylko obserwuje rynek developerski i stwierdzilo, ze PS sa w przyszlosci najwazniejsza, ale nie jedyna rzecza. Poza tym X1000 wspiera kazda nowa i przyszla gre. Pare plotek o G80 mowi ze ten uklad wcale nie bedzie mial zunifikowanych jednostek, ale "stare" dedykowane z jakas "hybrydowa" emulacja, u ATI juz jest Xenos. Tak naprawde to kto poszedl w dobrym kierunku pokaze najblizsza przyszlosc i DX10.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

ty o G80 nie mów oceniają karty które są teraz bo to głópota:) Jak wyjdzie G80 to o nim pogadamy i jego konkurencji:) Narazie to można tylko spekulowac o samej karcie... ale używac jej do poparcia jednej z firm ... ehh:)

7900 GTX prawdopodobnie będzie najwydajnijesza kartą na rynku... Nvidia zrobi już coś aby przechylic szale na ich strone...:) Chodz z 24 potokami wątpie aby ta karta była o wiele wydajniejsza...:)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

7900GTX

- PCIe native

- 655MHz core frequency

- 256-bit memory interface

- 52GB/sec. memory bandwidth

- 15B pixels/sec. fill rate

- 1450M vertices/sec.

- 24 pixels per cycle

- Built in twin dual-link DVI support for twin 2560x1600 resolution displays

czyli w sumie nic szczegolnego, ale jest jeszcze jedno info on nV - "twice as fast as previous generation chipsets" w operacja zmiennoprzecinkowych, byc moze dodali jednostek ALU lub wprowadzili jakies daleko idace optymalizacje w samej budowie potoku PS.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

http://www.dailytech.com/article.aspx?newsid=907

..to o 7900gt, a gtx ma mieć jednak 32 pipeline'sy. Wydaje mi się, że ta karta jest o wiele krótsza od swoich poprzedniczek. Czy tylko mi się tak wydaje?

Kurcze, dopiero co myślałem o jakimś stworze na agp a teraz już w głowie iskrzy nowa idea...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Przyznam szczerze,spodziewalem sie wiecej nowosci,a glownie liczylem na 512 bitowa szyne pamieci,tego to sie chyba nie doczekamy a czemu? Powiedzcie mi,czemu sie na tym nie skupia skoro 256 bitow na pamieciach bylo jeszcze w czasach wielkiej potegi radeona 9700

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

...

Wydaje mi się, że ta karta jest o wiele krótsza od swoich poprzedniczek. Czy tylko mi się tak wydaje?

...

Mnie rowniez sie wydaje karta jest jakas miniaturowa ,na pewno krotsza :) Ale straszna bieda na tym PCB :blink: Karta wyglada jak jakas budzetowka ,ale z pewnoscia wydajnoscia nie zawiedzie :wink:

 

 

Przyznam szczerze,spodziewalem sie wiecej nowosci,a glownie liczylem na 512 bitowa szyne pamieci,tego to sie chyba nie doczekamy a czemu? Powiedzcie mi,czemu sie na tym nie skupia skoro 256 bitow na pamieciach bylo jeszcze w czasach wielkiej potegi radeona 9700

Ale po co taka szyna? Powiedz mi kto gra w trybie 2048x1536 z 8xS i 16xAF :blink: Dlatego nie ma sensu stosowac szerszej szyny :wink: pozdro

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

nie było mnie kilka dni i widze że doniesienia i plotki stają się faktami, temato poszedł mocno do przodu. teraz dorzuce kilka slów od siebie. uważam że 7900gtx na pewqno nie będzie tańsze noż bariera 2500zł, a już na pewno nie tańsze od x1900 xtx/xt. myslę że w pewnych miejscach pokona r580 (zwłaszcza w teksturówkach i grach na doom3 engine) a może dostać po nosie od ati w shaderówach, a wtedy to co nv wyda? GF7900 1024?? to już by była przesda. oczywiście produkt z pewnością bezie wspierał SLI oraz sm 3.0. myslę że cena na początku będzie wachała się od 2,5 kafla do 2,7 a wersje OC mogą nawet na 3 kafle wejść. chociaż nawet to i lepsze bo jest w sklepach GTX512 od gigabyta za 3.2 kafla!!!!!!!!!! a mozna sobie x1900xtx skrzętnie za 2400zł sprawić. no więc narazie czekamy i zobaczymy.

Edytowane przez mastermind-pl

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Mnie rowniez sie wydaje karta jest jakas miniaturowa ,na pewno krotsza :) Ale straszna bieda na tym PCB :blink: Karta wyglada jak jakas budzetowka ,ale z pewnoscia wydajnoscia nie zawiedzie :wink:

Ale po co taka szyna? Powiedz mi kto gra w trybie 2048x1536 z 8xS i 16xAF :blink: Dlatego nie ma sensu stosowac szerszej szyny :wink: pozdro

Uwierz mi,jeszcze sie przyda,np zeby w takiego Feara pograc w 1600x1200 z aax4 i anizox8 a tak juz ludzie graja,no i nie potrzeba bedzie tworzyc sli czy crossfire'row

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Uwierz mi,jeszcze sie przyda,np zeby w takiego Feara pograc w 1600x1200 z aax4 i anizox8 a tak juz ludzie graja,no i nie potrzeba bedzie tworzyc sli czy crossfire'row

Już wypowiadałem się na poprzedniej stronie dlaczego prędko nie zobaczymy 512bitowej szyny danych-ale powtórzę

1.Większe koszty ze względu na droższą PCB(więcej warstw,wyprowadzeń itp.)

2.Coraz szybsze moduły DDR3(np.DDR1400 i szybsze)

3.Pojawiają się powoli DDR4 -ostatnio Samsung zaprezentował moduły pracujące z o częstotliwością 3,2GHz.

A kontroler RingBus,który z pewnością bedzie obecny w następnej generacji kart ATI, jest zaprojetowany do współpracy z takimi modułami.

4.Gry typu FEAR-silnik JupiterFX,nie jest jakoś szczególnie dobry/wydajny , dzisiejsze karty mają z nim problemy,ale wynika to z błędnego założenia developerow co do kart obecnych na rynku, w momencie premiery gry-

po prostu trochę przeszacowali wydajność dzisiejszych GPU/VPU.Przy ich tworzeniu/projektowaniu trudno przewidzieć jak rozwinie się rynek kart graficznych, za powiedzmy 2-3lata(czas tworzenia gry) i jakie rozwiązania przypadną do gustu programistom/developerom.Inżynierowie z ATI i NV także tego nie wiedzą-pozostaje im ciągła analiza trendów i rozwoju gier oraz ścisła współpraca z developerami.

5.Do gry w 1600x1200 i wyższymi z FSAA i FA jest potrzebny wydajniejszy procesor graficzny,a nie szersza szyna danych.256bit +DDR3/4 wystarczy w zupełności.

Poza tym jakoś nie widzę zastosowania dla takich rozdzielczości jak 2048x1536 w grach- te masy sprzedające swoje "stare" 19 LCD i kupujące nowe -30 calowe- monitory,bo własnie ukazała się nowa karta i można sobie pograć w tej rozdziałce w ulubioną grę...

Zanim tak będzie -minie kilka dobrych lat i prędzej zobaczymy w domach High definition TV + XBOX360/PS3 lub wpiętego kompa w taki TV, niż takie monitory na biurkach...

Edytowane przez BezbronnyPL

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

"...Nvidia’s code-named G71 graphics processing unit (GPU) will be a 90nm version of the original code-named G70 GPU that has 24 pixel processors and 8 vertex processors."

http://www.xbitlabs.com/news/video/display...0223090220.html

przy okazji zwiekszenia wydajnosci, zjechali tez z cena, a to moze okazac sie lepszym magnesem niz sama tylko wydajnosc.

btw: ciekawe jak bedzie sie krecil B)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Martwi mnie jedno ,a mianowicie pisza ze g71 to g70 w nowej technologi 0,09um i z naturalnie podniesionymi zegarami. Fajnie ale co z najwieksza bolaczka g70 ,kontrolerem pamieci? W tekscie nic nie wspominaja o tym ,a szkoda :sad: Ciekawe czy sprawdzi sie nowa polityka cenowa (chociaz w tego GTX512 na 400$ nie wierze :lol: ) :wink: Martwi mnie jednak ten kontroler pamieci ,bo zwykle podniesienie zegarow imo pozwoli na dogonienie Ati ale nic poza tym :? pozdro

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

The Inq podaje inne ceny, niż te z posta 377. Cena 7900gtx w Europie ma oscylować w granicach 550EUR. GT ma być odpowiednio tańszy, jednak jego cena mnie nie interesowała.

 

Sądzę, że plotki o niskich cenach 7900 to, niestety, brzydka, acz klasyczna, zagrywka pr'owska. Kto o zdrowych zmysłach kupi teraz x1900xtx jeśli wkrótce mają się pojawić może i szybsze jednak z pewnością (wg. plotek z chociażby w/w posta) tańsze karty od nv? Sprytne...

Edytowane przez draak

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

The Inq podaje inne ceny, niż te z posta 377. Cena 7900gtx w Europie ma oscylować w granicach 550EUR. GT ma być odpowiednio tańszy, jednak jego cena mnie nie interesowała.

 

Sądzę, że plotki o niskich cenach 7900 to, niestety, brzydka, acz klasyczna, zagrywka pr'owska. Kto o zdrowych zmysłach kupi teraz x1900xtx jeśli wkrótce mają się pojawić może i szybsze jednak z pewnością (wg. plotek z chociażby w/w posta) tańsze karty od nv? Sprytne...

życie ... :) tak jest zawsze i w przypadku konkurencji tak bedzie zawsze.

 

ps mam nadzieje ze nie wyskoczysz z tekstem ze ATI gra czysto :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

życie ... :) tak jest zawsze i w przypadku konkurencji tak bedzie zawsze.

 

ps mam nadzieje ze nie wyskoczysz z tekstem ze ATI gra czysto :)

cóż, teraz nkt nie gra czysto, ale GF na bank będzie droższy od XTX'a, daje głowe, to jhest zagrywa żeby ludzie poczekali, na coś lepszego i tańszego i nie kupili ati. GF musiała tak zrobić bo GTX512 który dostaje po [gluteus maximus] od 1900 jest nawet o 200zł droższy od xtx, dodam że xt go rozwala. więc gf robi co może. a kiedy wyjdą 7900 i ludzie zobaczą że są drogiew to GF będzie rzucać tekstami w stylu że mają H.264, że SM3.0, że HDR + AA że SLI i takie tam pierdy, i na bank ludzie się na to nabiorą. szokoda że wiekszość z tych "nowinek" GF'a ati już miała z x1800...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

to GF będzie rzucać tekstami w stylu że mają H.264, że SM3.0, że HDR + AA że SLI i takie tam pierdy, i na bank ludzie się na to nabiorą. szokoda że wiekszość z tych "nowinek" GF'a ati już miała z x1800...

pytanie: czy ja sie mylę czy juz kilka osób zwracało Ci uwage ze farmazony gadasz???

 

odpowiedz: NIE, NIE MYLE SIE - i gadasz farmazony i kilka osób zwracało Ci już uwagę

 

wniosek: daj sobie spokój

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Przesadzcie... swoja droga najnowsze przecieki mowia o 32 PS w GTX:) Co oznacza ze Nvidia mzoe zwyceizyc na kazdym polu... ale pytanie ile te karty beda kosztowac:) bo BFG juz sie chwali 650 dolarami za sztuke... sa drodzy ale to i tak oznacza ze tansze modele beda po 600:/ ... a teraz juz mozna XTX za 2300 zł dostac i XT za 2100 zł:)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

no ja też słyszałem że GTX ma mieć w końcu 32PS :), ale martwi mnie to, że GT ma dysponować tylko 24PS i stosunkowo marnymi częstotliwościami GPU,MEM :(, ale za to cena tej karty ma być niska i wynosić 300$, zaś za 7900 GTX będziemy musieli zapłacić teoretycznie 500$

 

ps.

poczekamy zobaczymy, ale jedno jest pewne nvidia po wyjściu G71 będzie liderem

Edytowane przez cavarr

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Przy 32 potokach i tak wysokich taktowaniach ta cena 500$ jest nierealistyczna("rozwalilo" by to rynek, nie tylko high, ale i nizszy). Ale ta cena sie przewija jako zupelny pewnik, to wtedy te 32 potoki sa prawie zupelnie nierealistyczne, ale za 11 dni sie okaze. Juz wiele razy przesadzono z tymi "potokami" czy to u ATI czy teraz u nvidia, ciekawi mnie czy pamieci beda GDDR3, czy 4 jak podobno taktowanie moze byc az 2GHz(wczesniej pisano o 1,6GHz).

Edytowane przez KiKiT

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A co to? Potoki i taktowania mają świadczyć o cenie karty? Może koszty produkcji są stosunkowo niskie a w dodatku chcą zdobyć większą klientelę, przecież to dobrze, że ceny nie będą zbyt wygórowane. Jeszcze istnieje coś takiego jak dumping... zresztą... co tam będę się rozpisywał jak to wszystko dopiero wyjdzie w praniu. Może okazać się, że to bzdury i karty będą kosztowały krocie i na dodatek będą niedostępne.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach




×
×
  • Dodaj nową pozycję...