Skocz do zawartości
cavarr

Geforce GTX 260/280

Rekomendowane odpowiedzi

A dlaczego nie do 1280? :D Jakoś grając w Crysis na GTS'ie grałem bez AA i to w rozdziałce 1024 (jakiś odpowiednik panoramiczny, ale zawsze), żeby to w miarę chodziło, więc taki 98GTX na nic by mi się nie przydał :wink: Zresztą poczekajmy na jakieś oficjalne testy (te ztcw robione na jakiś niedorobionych sterach) i wtedy wypowiadajmy się o beznadziejności produktu :) pzdr

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Zresztą poczekajmy na jakieś oficjalne testy (te ztcw robione na jakiś niedorobionych sterach) i wtedy wypowiadajmy się o beznadziejności produktu :) pzdr

O to samo prosiłem w dziale o 4850/4870 posiadaczy NVIDIA ale bez skutku, więc postanowiłem zrobić małą prowokację tutaj :razz:

 

Przecież doskonalę zdaję sobie sprawę że te wszystkie testy 4850 i GTX 280 można o kant [gluteus maximus] rozbić.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

moim zdaniem wydajnosc wzrosla wystarczajaca w porownaniu z 9800GTX

 

a jesli chodzi o rozdzielczosci, to gdyby coraz wieksze nie mialy znaczenia to bysmy zatrzymali sie na 800x600 :)

 

 

ale trzymam tez kciuki za AMD, mam nadzieje, ze HD 4850 bedzie udanym produktem :P

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

O to samo prosiłem w dziale o 4850/4870 posiadaczy NVIDIA ale bez skutku, więc postanowiłem zrobić małą prowokację tutaj :razz: (...)

Ty widzisz w tych testach beznadziejność, a ja z kolei całkiem konkretny postęp w stosunku do konstrukcji poprzedniej generacji, ale co kto lubi :wink:

 

W temacie o 4850/4870 nawet nie ma takich testów, a to co się pojawią to jakieś pół informację o ilości sp i tego typu bzdury :wink: pzdr

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

"We did some power draw tests on the GTX 280 cards in single and SLI mode on a QX9650 + 790i SLI setup. With single GTX 280 card, the system is drawing 147W at idle and 292.2W at peak and the 3DMark Vantage score is P10324. With GTX 280 SLI, the system is drawing 190.1W at idle and 508W at peak. The 3DMark Vantage score is P15813. Stay tuned for our full review in a few days time. "

 

Wynik ładny na sli ale pobor pradu duzy.

Jeśli to by była prawda z tym poborem to wynika na to, że jeden GTX 280 ciągnie "tylko" ~210W <_<

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jak się nie mylę to mieszkam w Polsce i tylko pod takim kątem rozpatruję opłacalność kupna karty. A opłacalność kupna GTX 280 dla rozdzielczości 1280x1024 jest prawie zerowa, biorąc pod uwagę jej ceną i pobór prądu. Jak dwa Radeony 4850 za 400$ łącznie, będą wydajnościowo na poziomie GTX 280 w każdej rozdzielczości, to nie wróżę tej karcie sukcesu również na zachodzie.

Dla Ciebie jest nie opłacalne, to nie kupuj. Jak ktoś ma 22-24" monitor to nie będzie raczej chciał grać w 1280x1024. Jak ktoś będzie chciał mieć najszybszą kartę na rynku to się nie zawaha przed wydaniem tych 700$ (w Polsce to pewnie będą nieliczni, ale nv nie sprzedaje swoich produktów tylko u nas). A są też tacy, którzy w du...e mają 2 radeony.

 

Więc jeszcze raz: nikt nie każe Ci kupować gtx280.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dla Ciebie jest nie opłacalne, to nie kupuj. Jak ktoś ma 22-24" monitor to nie będzie raczej chciał grać w 1280x1024. Jak ktoś będzie chciał mieć najszybszą kartę na rynku to się nie zawaha przed wydaniem tych 700$ (w Polsce to pewnie będą nieliczni, ale nv nie sprzedaje swoich produktów tylko u nas). A są też tacy, którzy w du...e mają 2 radeony.

 

Więc jeszcze raz: nikt nie każe Ci kupować gtx280.

Przestań się tak podniecać rzeczami martwymi jak np. karty NVIDIA, bo to jest niezdrowe.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Coś czuję Sulaco, że jesteś zawiedzony. Ciągle nie widać 200-300% wzrostu wydajności :P

Dołoży drugiego, a potem trzeciego i będzie pełnia szczęścia :wink:

 

Co do tego wzrostu to wszystko zależy od trybu, ja tam również widzę różnicę 3000% :lol2: pzdr

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Coś czuję Sulaco, że jesteś zawiedzony. Ciągle nie widać 200-300% wzrostu wydajności :P

:P widac nawet i 3000% ;) poczekajmy na normalne testy stock vs stock szczegolnie w min fps. ogolnie imho dobrze jest, mi tam wystarczy, ze w 1920x1200 fsaa4x, 280 jest ponad 88gtx w sli

 

Dołoży drugiego, a potem trzeciego i będzie pełnia szczęścia :wink:

no nie bedzie, bo nie mozna czwartego ;) ale tak powaznie, to ladowanie 3 i wecej kart nie ma wiekszego sensu przy tak nadal kulejacym CF/SLI, no chyba, ze do markow B-) Edytowane przez Sulaco

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

może by tak real life mode on?

na 100%?

widze więcej możliwości do wydania ~~700usd( czy nawet 200-400) niż ładowanie kasy w kolejną grzałkę, by zobaczyć 33% wiecej mocy(przy wzroscie pobowu wat o 50%)

 

nie lepiej pojechać nad adriatyk?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Do 1280x1024 to masz 8800GT albo HD4850.

 

Pozatym 1280x1024 to jest może i najbardziej popularna, ale w Polsce. Za granicą 1680x1050 i wyżej to standard i te karty są robione pod takie rozdziałki...

W Polsce mamy słabe komputery, a za granicą też tak różowo nie jest. Kto lubi się bawić i ma pieniądze, ten może pozwolić sobie na lepszy sprzęt.

 

Dla Ciebie jest nie opłacalne, to nie kupuj. Jak ktoś ma 22-24" monitor to nie będzie raczej chciał grać w 1280x1024. Jak ktoś będzie chciał mieć najszybszą kartę na rynku to się nie zawaha przed wydaniem tych 700$ (w Polsce to pewnie będą nieliczni, ale nv nie sprzedaje swoich produktów tylko u nas). A są też tacy, którzy w du...e mają 2 radeony.

 

Więc jeszcze raz: nikt nie każe Ci kupować gtx280.

 

Spokojnie, powoli. Jeżeli ktoś ma pieniądze, chęci to proszę bardzo. Ale to się robi chore, nowe produkty, ultra wydajne, do tego bardzo drogie, za nowości się płaci. Owszem, ale ceny są wysokie, jakby nie było. Chyba sami sobie pod sobą dołki kopią zniechęcając ludzi do zakupu takimi cenami początkowymi. Kto przy zdrowych zmysłach będzie co pół roku inwestował w nowy sprzęt? Przecież to się coraz bardziej chore robi. Nie wiem dlaczego tak zrzędzę, może się starzeje poprostu. Nowy hardware, a pod niego specjalnie pisane gierki, nowe silniki graficzne, więcej pieniędzy, zyski na hardware, straty na software, piractwo na bardzo wysokim poziomie. A później psioczenie, że taka ultra gra jak Crysis się słabo sprzedała na PC. Zobaczmy na konsole i na sprzedaż gier na PS3/X0, jak dobrze sprzedał się taki Call of Duty 4MW w porównaniu z edycją na PC. Można wymienić wiele tytułów, które się bardzo dobrze sprzedają na konsole.

 

Ja myślałem, że będą zmiany w kierunku mniejszego zapotrzebowania na prąd, ciekaw jestem kiedy to nastąpi i kiedy PC zostaną zminiaturyzowane. Sam GTX w tych "testach" na mnie wrażenia żadnego nie zrobił. Ot, kolejna pr0 karta, która szybciutko stanieje w szybkim czasie, do momentu gdy pojawią się następne ;).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Spokojnie, powoli. Jeżeli ktoś ma pieniądze, chęci to proszę bardzo. Ale to się robi chore, nowe produkty, ultra wydajne, do tego bardzo drogie, za nowości się płaci. Owszem, ale ceny są wysokie, jakby nie było. Chyba sami sobie pod sobą dołki kopią zniechęcając ludzi do zakupu takimi cenami początkowymi. Kto przy zdrowych zmysłach będzie co pół roku inwestował w nowy sprzęt? Przecież to się coraz bardziej chore robi. Nie wiem dlaczego tak zrzędzę, może się starzeje poprostu. Nowy hardware, a pod niego specjalnie pisane gierki, nowe silniki graficzne, więcej pieniędzy, zyski na hardware, straty na software, piractwo na bardzo wysokim poziomie. A później psioczenie, że taka ultra gra jak Crysis się słabo sprzedała na PC. Zobaczmy na konsole i na sprzedaż gier na PS3/X0, jak dobrze sprzedał się taki Call of Duty 4MW w porównaniu z edycją na PC. Można wymienić wiele tytułów, które się bardzo dobrze sprzedają na konsole.

 

Ja myślałem, że będą zmiany w kierunku mniejszego zapotrzebowania na prąd, ciekaw jestem kiedy to nastąpi i kiedy PC zostaną zminiaturyzowane. Sam GTX w tych "testach" na mnie wrażenia żadnego nie zrobił. Ot, kolejna pr0 karta, która szybciutko stanieje w szybkim czasie, do momentu gdy pojawią się następne ;).

Dokładnie, kto będzie chciał to kupi.

Muszę się z tobą zgodzić, to jest chore. Programiści zamiast pisać gry pod sprzęt, który się dopiero ukaże, ( i uciągnie co niektóre gry vide CRYSIS) mogliby je optymalizować pod karty które istnieją i są całkiem wydajne zresztą.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli to by była prawda z tym poborem to wynika na to, że jeden GTX 280 ciągnie "tylko" ~210W <_<

Póki xbitlabs tego nie sprawdzi to nie będziesz znał realnego poboru mocy , ale więcej jak 180wat nie będzie. W spoczynku na oko widać , że będzie 30-40wat.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ale nie czujecie się trochę oszukani??

Bo ja po tych zapowiedziach spodziewalem się o wiele wiele więcej. NV była przekonana, że ma cos co powali na kolana. cena 650$ też musiała być wynikiem pewnego rodzaju pewności siebie. Bo nie rozumiem po co robić wielki marketigowy szum na wyjście czegoś co nie różni się od czegoś co przysłowiowy Kowalski ma juz w swoim blaszaku(gx2). Bo nie prawdą jest że jeżeli ma cos bardzo zbliżoną wydajność jest tak samo łakome na prąd to dla wielu z nas ważniejsze będzie mieć te 200$ w kieszeni? Byłem przekonany do NV ale każda następna godzina sprawia, że chyba nie kupie tej karty. Co gorsza śmiać mi się troche chce z ludzi którzy na premierę GX2 szumnie się z niej śmiali a g200 bronią.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No ja szczerze przyznam że jednak spodziewałem się nieco lepszych wyników.... O jakieś kilkanascie % w stosunku do tego co obecnie mamy.... Tak czy inaczej z pewnością jest dobrze (choć jak widać dla fanów ATI tradycyjnie nie :lol2: ).... Moim zdaniem przewaga GT200 będzie się uwidaczniać wraz z coraz to nowszymi grami i w wyższych rozdziałkach.... Coś ala NV40-->G70 gdzie po kilku miesiącach nawet GF7600GT był szybszy od posiadającego papierowo lepsza speckę GF6800GT....

 

Tak wiec jak pierwze testy GT200 już mamy i czekamy na nowe Radki.... :wink: Oby tylko wyniki okazały się lepsze niż te wyciekłe (poziom między GF8800GT a GF9800GTX) a powinny bowiem papierowa specyfikacja wzrosła w stosunku do Rv670 w stopniu większym niż ma to miejsce w przypadku G80-->GT200 :wink:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

ja mysle ze zawod w sporej mierze jest zasluga wyniszczajacej wojny cenowej miedzy ATI a NV

po prostu przy obecnych cenach takiej 8800 gt ( 400 zl ) ktora po podkreceniu ma bardzo dobra wydajnosc

jest w zasadzie niemozliwe wydanie nowej karty, na nowej architekturze ( przy starej technologii produkcji ) ktora by miala satysfakcjonujaca relacje cena / wydajnosc

 

radek 3850 ~ 350 zl

8800 gt ~ 400 zl

8800 gts ~ 540 zl ?

 

no sorry ale te ceny sa kosmicznie niskie

to nie gt280 jest slaby, tylko poprzednie karty sa rewelacyjne

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie wiem jak Wy ale ja bym się wstrzymał z oceną możliwości nowych GFów. Stery są niedopracowane i nie ma za bardzo po co poróznywać z dopracowanym softem do GF88/98. Pożyjemy zobaczymy. Podobna była sytuacja z 8800GTS/GTX.

Co do czucia się oszukanym to sory ale jeśli w rozdziałce 1280x1024 już na tą chwile jest ok 30% lepiej to na co mieliśmy liczyć? To taka rozdziałka gdzie już niestety 90% proców w kompach będzie hamować 260/280GTX. Zresztą skoro przez nVidię człowiek ma czuć się oszukany to co dopieru po premierze HD3870 od AMD? Miały być najszybsze układy a okazało się coś innego...

Ja czekam na karty dla masy. Mam nadzieję że znowu wymyślą coś pokroju 8800GT :) Na HighEnd będzie większość stać za rok/dwa. A i wtedy będzie to nadal mocny sprzęt tak jak obecnie stary ale jary 8800GTX.

Edytowane przez dzikidaniel

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gość Firekage

Dla Ciebie jest nie opłacalne, to nie kupuj. Jak ktoś ma 22-24" monitor to nie będzie raczej chciał grać w 1280x1024.

Ten ktos prawdopodobnie ma PS3/X360 i zwisa mu pakowanie kasy w PC , zwlaszcza jesli siedzi za oceanem...

 

Ten wyscig zbrojen jest idiotyczny. Coraz to wieksze potworki , a wymiekaja przy nowszych produkcjach. To sie robi lekko smieszne :| Szczerze watpiw w to , ze nawet ktos za oceanem wywali taka kase w to cos...skoro tam gra sie na konsolach i to wlasnie na panoramach bez problemow. U nas zas na PC bo gry tansze...

 

Eot , sorki ale musialem. Widze , ze wiekszosc pisze o czyms czego nie ma , a do momentu realnych testow sklepowych wersji wszystkie te dywagacje sa wedlug mnie niepotrzebne.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A mi się jednak wydaje, że sumarycznie USA z Kanadą do spółki kupuje więcej Hi-Endowych GPU niż Europa, oni mają zasadniczo tanio te karty, jak u nas jest coś za 300 euro to oni to mają z reguły za 300 dolarów. Nam to wręcz opłaca się kupić GPU w USA, zapłacić za transport, za cło i w sumie wyjdzie taniej niż wejść do sklepu i poprosić o 280 GTX. A skoro nam to się opłaca, to Amerykanom tym bardziej. Takie OT o 4 rano :P

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Oj osoba wyżej jest w błędzie. Amerykańce kupują X'a 360 i grają. Coraz częściej wystarczają im zwykłe laptopy i tyle... Po prostu w Polsce ludzie nie mają kasy na gry konsolowe, więc lepiej kupić komputer i sobie spiracić coś

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Oj osoba wyżej jest w błędzie. Amerykańce kupują X'a 360 i grają. Coraz częściej wystarczają im zwykłe laptopy i tyle... Po prostu w Polsce ludzie nie mają kasy na gry konsolowe, więc lepiej kupić komputer i sobie spiracić coś

Z tego co mi wiadomo, to pirackie gry na x360 i ps3 to też żaden problem nie jest. A i ceny na piraty podobne. Więc to musi wynikać z czegoś innego. Może po prostu za bardzo jesteśmy przyzwyczajeni do blaszaków??

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Z tego co mi wiadomo, to pirackie gry na x360 i ps3 to też żaden problem nie jest. A i ceny na piraty podobne. Więc to musi wynikać z czegoś innego. Może po prostu za bardzo jesteśmy przyzwyczajeni do blaszaków??

 

Co do PS3 to jesteś w błędzie, zabezpieczenia konsoli jeszcze nie zostały złamane.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No ja szczerze przyznam że jednak spodziewałem się nieco lepszych wyników.... O jakieś kilkanascie % w stosunku do tego co obecnie mamy.... Tak czy inaczej z pewnością jest dobrze (choć jak widać dla fanów ATI tradycyjnie nie :lol2: ).... Moim zdaniem przewaga GT200 będzie się uwidaczniać wraz z coraz to nowszymi grami i w wyższych rozdziałkach.... Coś ala NV40-->G70 gdzie po kilku miesiącach nawet GF7600GT był szybszy od posiadającego papierowo lepsza speckę GF6800GT....

 

Tak wiec jak pierwze testy GT200 już mamy i czekamy na nowe Radki.... :wink: Oby tylko wyniki okazały się lepsze niż te wyciekłe (poziom między GF8800GT a GF9800GTX) a powinny bowiem papierowa specyfikacja wzrosła w stosunku do Rv670 w stopniu większym niż ma to miejsce w przypadku G80-->GT200 :wink:

Jak wyniki w vantage 2x4850 się potwierdzą w grach :wink: to będzie lol dla GTX280.

Trzeba trzymać kciuki bo nie ma nic lepszego od ostrej rywalizacji na czym korzystamy my, kupujący.

Z tego co mi wiadomo, to pirackie gry na x360 i ps3 to też żaden problem nie jest. A i ceny na piraty podobne. Więc to musi wynikać z czegoś innego. Może po prostu za bardzo jesteśmy przyzwyczajeni do blaszaków??

To źle ci wiadomo, bo piratów na ps3 jak dotąd nie ma.

 

Kingpin atakuje ;) - http://www.xtremesystems.org/forums/showthread.php?t=191313

3DMARK Vantage 4 presets using:

QX9650 F1 extreme cooled/ EVGA 790iSLI

EVGA gtx280 Triple SLI/ TEK 4.0 LN2 cooled

CORSAIR DOMINATOR 1800C7

SILVERSTONE 1200W + CORSAIR HX1000W for power delivery:

Dołączona grafika

 

Dołączona grafika

 

 

Panowie dzisiaj premiera, gdzie są recki ?? :wink:

Edytowane przez cavarr

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Dodaj odpowiedź do tematu...

×   Wklejono zawartość z formatowaniem.   Przywróć formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

Ładowanie


×
×
  • Dodaj nową pozycję...