Skocz do zawartości

Rekomendowane odpowiedzi

wynik w 3dmarku przeciez niezalezy tylko od samej karty... a przeciez na prezentacji nvidi i w servisie recenzujacym karte 6800 ultra niemaja identycznego sprzetu... normalne ; ) niema w tym nic dziwnego...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

z tego co ja wiem to ci "testerzy" niemają a raczej niestać ich zabardzo na zakup np. takiego P4 3.4 EE + 2x 512 MUSHKIN i te de... a podkrecic taki sprzet na 3.4@3.8 & DDR 500 i porownac wydajnosc z P4 2.8 i 2x256 ramu niekreconego... to raczje roznica bedzie... niewiem jaka maszyna dysponowala nvidia podczas pokazu ale napewno niebyl to sprzet typu LOW END ; )

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

O czym ty piszesz? Cos slabo wiesz. Sprawdzales konfiguracje zachodnich serwisow? A newet i naszch? To sa niemal zawsze topowe modele z markowymi pamieciami i ustawionymi na max (przyklad z hardwareanalysis: The system we used consists of a Pentium 4 3.2GHz EE processor, EpoX? 4PCA3+ i875P chipset motherboard, 1GB of Crucial DDR400 memory and two Western Digital WD740GD Raptors in raid0).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Po prostu mnie martwi wydajnosc tej karty.

Teraz Carmacki i inne Valve moga sobie robic co chca ze swoimi dumami i halfami :(

Nie rozumiem . Przecież będzie mnóstwo opcji i będziesz mógł powyłączać to czego nie chcesz żeby nie zwalniało gry . Tak mi się wydaje na mój rozum .

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Kaeresowi chodzi razcej o to ze tworcy takich gier nie beda musieli sie przykladac do jej kodu. Dlatego ze tak czy siak gra bedzie chodzic plynnie. A w rzeczywistosci, jakby ja barzdiej doprabvowac moglaby wygladac tak samo na polowie slabszym sprzecie. Tez mysle ze to troche za szybko...bylo 7k teraz nagle 14k w 3dsmarku 2003. Fakt faktem ze jeszcze troche poczekamy...ale obawiam sie ze nie dlugo :(

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

goscie troche was nierozumie najlepiej by było gdyby kazdy z was dostał wize :) na ten pokaz z nv40 to moze byscie uwiezyli ale tak to sie będziecie sprzeczac czy ten wynik 14k jest prawdziwy czy nie jezeli jest juz kilkanascie recenzji na necie to chyba wiadomo ze powyzej 12 tyskiaków ta karta ciągnie na powiedzmy dobrym procku ale niestety na tym forum mamy 90% niedowiarków.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

trzeba czekac na rv420 zeby zobaczyc jak sie ma wydajnosc nv40 ale ja osobiscie czekam do wakacji az cena radka9800 jeszcze sporo spadnie(w polsce nic nie wiadomo) i moze kupie a jesli chodzi o wydajnosc w grach a nie markach to bym sie nie zdziwil gdyby 6800ultra w half life2 bylo na poziomie radka 9800xt.

A najbardziej to mnie martwi co sie stanie z uzytkownikami slabszych kart jak produceni gier przestana optymalizowac gry pod slabsze karty i to nie mowie o GF2mx czy radki7500 ale GF3/4ti/fx5600/5700 oraz radki 9100/9500/9600- bo to podlog 6800 to shit

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

radek 9500 to to samo co 9700 ( chodzic o gpu - tylko potoki i szyna sie rozni) wiec pod 9700 tez musieliby przestac

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jako, że wspomnieliśmy tu o Unreal3 to tu jest opisany efekt nowego Bump Mapingu o nazwie: parallax mapping

 

Jako ciekawostke dodam, że to chyba tym NVidia chwaliła się w FarCry jako PS3.0! :lol: :lol: :lol: :lol:

 

http://translate.google.com/translate?u=ht...Flanguage_tools

 

A tu link do demka :twisted: :ftp://213.186.44.19/240592029/pub/techdem...mo/parallax.zip

Tylko dl posiadaczy DX9

 

Tutaj rozwinięcie artykułu :wink: :

http://www.onversity.com/cgi-bin/progactu/...s&P=N200401#160

 

Aha. Nie wiem czy wiecie, ale nVidia chwali się, że jej najnowsze dziecko obsługuje Displacement Mapping! :) :) :) Najciekawsze jest to, że nawet stare R300 to obsługuje! :D :D :D Także panowie to co pokazała nVidia w FarCry może dla nich to nowość ale nie dla nas! 8)

 

Więc chyba jednyna poważna różnica między R360 a 6800 to moc obliczeniowa. W końcu poprawili PS2.0 :wink: 8)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Podstawowe różnice między PS2.0 a PS3.0 to długość instrukcji dla shaderów. Nowych efektów jest tylko kilka i tak jak to ktoś już napisał wcześniej, raczej zwykły gracz nie będzie miał z nich korzyści. Pewnie dla tego nie ma DX10 tylko dodali przyrostek do DX9 "c". Dla nast to chyba lepiej bo nie będzie trzeba zmieniać tak szybko sprzętu. Choć pewnie znajdzie się ktoś, kto powie, że tym PS2.0 chcę zatrzymać rozwój nowych realistycznych gier! 8) 8) 8) To chyba narazie tyle. Czekamy na dalszy bieg wydarzeń. :wink:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Czyli wygląda to tak, że NV zabuliła bilkowi za ten przyrostek "c" ładne pieniążki, tak naprawdę nic nowego nie wnosząc, a już napewno nie tyle co wniósł dx 9.0 w porównaniu do 8.1.

 

Pewnie ATI też wypuści swoją kartę z nowymi technologiami, ale na pudeku nie będą się mogli chwalić tym "c" z wiadomych przyczyn :-] $$$

Może mogli nadać taki przyrostek dx 9.0 $nv$ :lol:

 

Tak jak mówi kojak_ct - my na tym tylko zyskamy, a raczej nie stracimy, bo karty po za ogromną wydajnością, to trzeba przyznać 8) nic ciekawego nie wnoszą

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tak jak mówi kojak_ct - my na tym tylko zyskamy, a raczej nie stracimy, bo karty po za ogromną wydajnością, to trzeba przyznać  8) nic ciekawego nie wnoszą

 

Dla mnie jest to wlasnie ciekawe ze wnosza ogromna wydajnosc i nawet fajnie ze nic wiecej ;] Jeszcze Dx9.0 sie nie na dobre nie zadomowil a Wy jush byscie chcieli dx 100 ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ależ ja tej wydajności nie krytykuję, podoba mi się ona jak cholera i jeśli ATI nic nie pokaże to kupuję 6800.

Chciałem tylko zwrócić uwagę, że postęp o który mówi hajmon jest bardziej chwytem marketingowym niż kolejnym skokiem technologiczym.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

nVidia zwiększa częstotliwość GPU z 400MHz do 475MHz :)

 

"Regarding the NV40 - I think you're all forgetting this is A1 silicon which has been available for sometime now. A2 silicon was available at review time, but NVIDIA decided against it.

 

There's a reason the clockspeeds suddenly went from 475Mhz to 400Mhz - the final ones will be at or over 475Mhz, but NVIDIA's in their "let's make ATI more confident in themselves than they should be" mood.

 

If anything, this generation will probably be remembered by the gazillions of tricks & traps each company is preparing for its arch-nemesis... But I'd still be inclined to say the R420 will win this war for several reasons. We'll see though."

 

Hajmon3 żal mi ciebie, że nie zobaczysz w pełni sprawnego PS.2.0+ na swojej karcie. :(

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

:arrow: Hajmon

Bardzo dobrze, że grafa jest bardzo wydajna! Tego nie negujemy. :wink: Dyskutujemy tylko o nowościach w PS3.0, które dla nas nie są nowe! 8)

Ale jeśli ATI się nie popisze to kupie tego 6800. :roll:

 

Dla tych, co nie mogą zapuścić demka oto obrazki:

 

Dołączona grafika

 

Czyż efekt nie jest ciekawy??? :wink:

 

 

 

A tu drugie demko:

 

Dołączona grafika

 

Dołączona grafika

 

Popatrzcie jak cień załamuje się na płaskiej bitmapie! 8O Szkoda, że mam Radka 9800Pro i jeszcze w żadnej grze tego nie widziałem! :evil: I gdzie tu ten postęp?

 

PS.

Czy to czasem nie efekt z FarCry na plaży?? 8) 8)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

nVidia zwiększa częstotliwość GPU z 400MHz do 475MHz :)

 

"Regarding the NV40 - I think you're all forgetting this is A1 silicon which has been available for sometime now. A2 silicon was available at review time, but NVIDIA decided against it.  

 

There's a reason the clockspeeds suddenly went from 475Mhz to 400Mhz - the final ones will be at or over 475Mhz, but NVIDIA's in their "let's make ATI more confident in themselves than they should be" mood.  

 

If anything, this generation will probably be remembered by the gazillions of tricks & traps each company is preparing for its arch-nemesis... But I'd still be inclined to say the R420 will win this war for several reasons. We'll see though."

 

Hajmon3 żal mi ciebie, że nie zobaczysz w pełni sprawnego  PS.2.0+ na swojej karcie. :(

jak nie jak tak zobacze zobacze tyle ze z klatkami na poziomie Radeona 9500pro/9600pro :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jedna rzecz, o której powinniście wiedzieć jest taka, że ATI od początku miała zaplanowaną premierę karty na 4 maja. Skąd się wziął 26 kwietnia? Podejrzewam, że datę tę wyssał z palca niejaki Fudo z The Inquirer. Podczas Cebitu dowiedziałem się wielu "ciekawych" rzeczy na jego temat. Przede wszystkim powinniście uważać na to, co koleś wypisuje, ponieważ wiele rzeczy po prostu... wymyśla. Jako przykład zapodam takiego newsa:

 

http://www.theinquirer.net/?article=14878

 

Co powiecie na 8-potokowego NV40?  

 

Pewnie Fudo napisał o 26 kwietnia, a potem setki serwisów z całego świata, opierając się na jego newsie (bo The Inquirer jest znany i popularny), powtórzyło "rewelacje" i bach. Mamy datę 26 kwietnia.

 

Jeszcze nawiązując do Waszych wypowiedzi: ArturNOW, nie, nie chodzi o teksturki 3D  

 

Kolejna sprawa: PS 2.0 i PS 3.0. Różnica między PS 2.0 i PS 3.0 jest taka, że w przypadku PS 3.0 można pisać programy dla jednostki PS o nieograniczonej długości. PS 2.0 ma limit, jednak można po prostu go obejść łącząc ze sobą kilka programów. Oznacza to, że przy pomocy PS 2.0 można uzyskać IDENTYCZNE efekty, jak przy PS 3.0, a więc screeny z Far Cry to jedna wielka ściema. PS 3.0 po prostu ma ułatwić pracę programistom, jednak nie daje dostepu do żadnych nowych funkcji, których nie było w PS 2.0.

 

Oczywiście może dojść do sytuacji, że programista zignoruje w ogóle PS 2.0 i napisze dłuuuugi kod pod PS 3.0, który na 2.0 nie będzie chciał ruszyć. Wątpię jednak, by ktokolwiek chciał coś takiego robić, bo w ten sposób zamknie sobie drogę do milionów graczy, który mają obecnie karty zgodne z DX 9.0b: wszystkie RADEONy oraz wszystkie GeForce FX. Dlatego Far Cry z obsługą PS 3.0 jest teoretycznie możliwy, ale to będzie tylko "gra pokazówka" - inni producenci jeszcze długo zostaną przy PS 2.0, a na 3.0 przesiądą się... hmm... za co najmniej rok, a może nawet dwa.

Jak to czytałem to śmiać mi się chciało 8O nVidia po raz kolejny chce wprowadzić kupującego w błąd. Mam nadzieje że ATi ich w pył rozwali za te ich oszustwa. A jak sama będzie coś kombinować to :wisielec: . I czekam na reaktywacje Kyro. Dostatecznie ATi mnie zdenerwowało w jaki sposób potraktowało Herculesa.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

ale jazda o te ps3 itp. faktem jest ze karta mimo wszystko oferuje niezle mozliwosci silnika - nie tylko zgodne z ps3 czy innym - jest cholernie wydajna - ma lepsza jakosc obrazu niz poprzedniczka no i jest cholernie tania + mozliwosc przerobienia 6800 na ultra to juz w ogole!!!!

zobaczymy czym bedzie Ati nas zachecac (albo zniechecac) do zakupu - cena to napewno nie $399 za normalna wersje oraz $100 wiecej za ultre wypasiona...

no coz poczekajmu jeszcze ten tydzien czy ile do premiery

poczekajmy takze na dorobione stery do nv40 i na dooma3 i HL - niech tam sie popisze swoimi mozliwosciami:))

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach




×
×
  • Dodaj nową pozycję...