Skocz do zawartości
cavarr

Geforce GTX 260/280

Rekomendowane odpowiedzi

No to sie jej pozbywam ;) dałem taniej niż na allegro nówki;) powinna pójść;)

karte mozesz oddac w terminie 10 dni od zakupu bez podania przyczyny rezygnacji

 

co masz zamiar kupic zamiast niej ?

radka 4850 ?

on bedzie prawdopodobnie mial bardzo podobna wydajnosc

a jego cena na samym poczatku raczej nie bedzie rewelacyjna

pamietaj ze czekac na spadek cen mozna w nieskonczonosc

w ktorym momencie bys nie kupil to i tak po kilku miesiacach bedziesz mocno stratny

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie mogę jej oddać, bo nie kupiłem jej w Polsce. Ale Zotac chyba ma międzynarodową gwarancje, jak przyjdzie do mnie w środę to ją obczaje.

Wyjeżdżam na cały czerwiec, jak wrócę w lipcu to kupie albo 280 albo 4870 i do tego blok.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie mogę jej oddać, bo nie kupiłem jej w Polsce. Ale Zotac chyba ma międzynarodową gwarancje, jak przyjdzie do mnie w środę to ją obczaje.

Wyjeżdżam na cały czerwiec, jak wrócę w lipcu to kupie albo 280 albo 4870 i do tego blok.

obys tylko sie nie zdziwil w lipcu "wesolymi" cenami tych kart :-)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

dobry... :)

Dołączona grafika

Dołączona grafika

Dołączona grafika

 

A nowy Radeon 4870 nie będzie konkurentem GTX 280 dopiero RV870

http://forums.vr-zone.com/showthread.php?t=279223

 

Blok

Dołączona grafika

Dołączona grafika

http://www.aqua-computer-systeme.de/cgi-bi...;num=1211479269

Edytowane przez M1siek

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ciekawe czy w grach też 3x szybsza ;)

.... jak nie więcej :wink: 7 tys. pkt w trybie Xtreme w Vantage to o ok. 60-70% lepiej niż GF9800GX2 a to już coś.... Tak więc przyjmując że Vantage dośc dobrze odzwierciedla realną wydajnośc kart w grach możemy się spodziewać ogromnego wzrostu wydajności względem najszybszych dzisiejszych kart.... :rolleyes:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

7 tys. pkt w trybie Xtreme w Vantage to o ok. 60-70% lepiej niż GF9800GX2 a to już coś....

brzmi faktycznie ladnie, tylko, ze jakos nie moge tego przelozyc na spec - GT200 240SP 32ROP 80TMU vs 2xG80 256SP 48ROP 128TMU, takty niby zblizone, a wydajnosc sporo wyzsza, 7000 vs 5000 3dmV. albo nie znamy calej prawdy o taktach, albo SP

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

ale gx2 to 2x g92 a nie 2x g80, A G80 > G92

odnioslem do g80, bo ten w SLI lepiej wypada w 3dmV niz gx2, nawet po mocnym podkreceniu shaderow na tym drugim. samo SLI bardzo dobrze sie skaluje - ponad 90%. wiec bardzo mnie zastanawia skad te +2000 pkt. procek/fizyka ma 5% wplyw na wynik, w tym przypadku, wiec to nie to. tutaj liczy sie sama moc karty.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Co do wyniczku to albo coś znacznie poprawili w architekturze, w szczególności w obsłudze DX10, albo fake.

 

Co do kart to:

1. wymiary rdzenia, samej karty, oraz brak zagrożenia ze strony A(TI)MD sugerują że będzie droooga i zanim będzie kosztować ~650zł tak jak 8800GTS obecnie, zdąży wyjść jakiś "Crysis 2" który je zarżnie,

2. wymiary rdzenia sugerują że będzie łakoma i gorąca, przydał by się jakiś 45nm procesik...

 

Niemniej karciochy zapowiadają się smakowicie :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

brzmi faktycznie ladnie, tylko, ze jakos nie moge tego przelozyc na spec - GT200 240SP 32ROP 80TMU vs 2xG80 256SP 48ROP 128TMU, takty niby zblizone, a wydajnosc sporo wyzsza, 7000 vs 5000 3dmV. albo nie znamy calej prawdy o taktach, albo SP

Hmm ale może w GT200 nastapiły jakieś daleko idące usprawnienia poprawiające znacząco efektywność każdego z elementów układu?? TMU z GT200 może jest jeszcze bardziej usprawnione niż te z G92, które już w porównaniu do G80 mialo je usprawnione.... To samo z ROPami - mimo iż jest ich "tylko" 8 wiecej niż w G80 to moze dodatkowo jeszcze zostały usprawnione.... No i w końcu SP - cóż jeśli chodzi o takty to raczej tutaj cudów nie należy się spodziewac o czym świadczy chocby "zaledwie" 1Tflop teoretycznej mocy obliczeniowej.... Pytanie tylko czy 1Tflop GT200 = 1Tflop z G80 (gdyby podnieśc takty SP)??

 

Niewiem czy dobrze to rozumiem ale może poprostu GT200 bazuje na 3Flops na Shader w "standardzie".... Wiadomo że ma moc obliczeniową ok 350Gflops (2Flops/Shader) a już szczytową nieco ponad 500Gflops (w tym przypadlu 3Flops/Shader).... Może GT200 w każdej sytuacji ma ten 1Tflops i nie zależy to od sytuacji tak jak w G80 a wtedy przewaga nad G80 wzrasta do 3X....

NVIDIA miała kupę czasu żeby w spokoju rozwinąć i znacznie ulepszyć każdy oszczególny element i tak już świetnej architeORT: ORT: ktury.... W koncu prawie 1,4 mld tranzystorów nie znalazło się tam przez przypadek.... Może faktycznie jest jeszcz coś w tym układzie o czym niewiemy....

 

Co do samych wyników to nie wydaje mi się - i mam nadzieję - żeby był to fejk.... Za blisko do poremiery zeby mogły się teraz ukazywac znacząco odbiegające od prawdy informacje.... Gdyby takie info ukazało się ze 3 miechy temu to mozna by bylo powątpiewać ale teraz?? Na nieco ponad 3 tyg od premiery?? Co więcej te info o wydajności pochodzi z tego samego źródła co wszelkie pozostale info dotyczace tego układu więc wydaje się bardzo watpliwe zeby wypuszczali rzetelne info o specyfikacji zmyślając kompletnie wydajnośc.... Niewiarygodne - jak się początkowo wydawało - info o wydajności G80 też wypływały z tego źródła i okazały się prawdziwe :wink: Miejmy nadzieję ze to dobry znak :razz:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

nie bierzecie pod uwage jednego elementu

gx2 ma 512 MB VRAM na rdzen ( czyli tak jakby miala de facto 512 )

gt200 ma 1024

tak wiec ta roznica moze wynikac zwyczajnie z tego, ze gx2 brakuje pamieci i zaczyna sie dusic

Edytowane przez quo

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

nie bierzecie pod uwage jednego elementu

gx2 ma 512 MB VRAM na rdzen ( czyli tak jakby miala de facto 512 )

gt200 ma 1024

tak wiec ta roznica moze wynikac zwyczajnie z tego, ze gx2 brakuje pamieci i zaczyna sie dusic

No napewno RAM ma tutaj znaczenie więc pewnie masz rację w tej kwestii jednak akurat porównanie tyczyło się raczej wyniku 2xG80 a ten specyfikacją jest lepszy od GF9800GX2.... Szersza szyna danych i 768MB nie są już tak dużą różnicą jak w przypadku G92 i GT200 a mimo to nawet 2XG80 nie jest w stanie się nawet zbliżyć do wyniku GT200....

 

Tak czy inaczej pewnie same ROPY dają dużo i przede wszystkim pamieć jednak może nie tyle jej ilość (choć też z pewnoscią) a szyna 512-bit która w takich rozdziałkach pokaże swoją przewagę.... :wink:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

co do g80 to nic dziwnego, ze dostaje w dupe

najnowsze silniki szczegolnie mocno obciazaja shadery

 

g80 = 128 shaderow * 1350 MHz

gt200 = 240 shaderow * 1688 MHz ( zgaduje ze podobna do 9800 gtx ) * 150% ( te niby poprawione shadery )

 

z tego szacunku dostajemy 3.5x wieksza moc shaderow gt200 w stosunku do g80

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

co do g80 to nic dziwnego, ze dostaje w dupe

najnowsze silniki szczegolnie mocno obciazaja shadery

 

g80 = 128 shaderow * 1350 MHz

gt200 = 240 shaderow * 1688 MHz ( zgaduje ze podobna do 9800 gtx ) * 150% ( te niby poprawione shadery )

 

z tego szacunku dostajemy 3.5x wieksza moc shaderow gt200 w stosunku do g80

GT200 ma ponoć 1,3 Ghz taktowane SP.... Pozatym mowa jest tutaj o 2XG80 czyli 256SP.... :wink:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Niewiem czy dobrze to rozumiem ale może poprostu GT200 bazuje na 3Flops na Shader w "standardzie".... Wiadomo że ma moc obliczeniową ok 350Gflops (2Flops/Shader) a już szczytową nieco ponad 500Gflops (w tym przypadlu 3Flops/Shader).... Może GT200 w każdej sytuacji ma ten 1Tflops i nie zależy to od sytuacji tak jak w G80 a wtedy przewaga nad G80 wzrasta do 3X....

mozliwe, ale musi isc to razem z poprawa sprawnosci/mocy pozostalych "modulow". g92 vs g80 mocno zostaje w tyle w drugim tescie 3dmV (prawie 20%), mimo, ze glownie sie on opiera na shaderach. tak wiec na pewno magistrala pamieci duzo tutaj daje.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

mozliwe, ale musi isc to razem z poprawa sprawnosci/mocy pozostalych "modulow". g92 vs g80 mocno zostaje w tyle w drugim tescie 3dmV (prawie 20%), mimo, ze glownie sie on opiera na shaderach. tak wiec na pewno magistrala pamieci duzo tutaj daje.

Hmm ciekawe stwierdzenie - czyżby GT200 rzeczywiście był kolejnym przełomem??

 

Cytat z Benchmarkreviews.com:

 

"Just wait until June 17th when the GTX 200 series of GPU's launch, and you'll start asking yourself when you last witnessed such a dramatic technology improvement. If you thought the GeForce 8 series blew the 7-series out of the water, this is going to leave you in shock. That's not my own marketing spin... Benchmark Reviews is presently testing the new GeForce video card."

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Hmm ciekawe stwierdzenie - czyżby GT200 rzeczywiście był kolejnym przełomem??

 

Cytat z Benchmarkreviews.com:

 

"Just wait until June 17th when the GTX 200 series of GPU's launch, and you'll start asking yourself when you last witnessed such a dramatic technology improvement. If you thought the GeForce 8 series blew the 7-series out of the water, this is going to leave you in shock. That's not my own marketing spin... Benchmark Reviews is presently testing the new GeForce video card."

Coś czuje, że tak będzie :D

 

NVIDIA Editor's Day 2008

 

Dołączona grafika

 

http://benchmarkreviews.com/index.php?opti...78&Itemid=1

 

Geforce GTX 280 und 260: Finale Taktraten?

http://www.hardware-infos.com/news.php?news=2090

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jak dobrze, że mam zamiar upgrade blaszaka zrobić na jesieni wtedy pewnie GTX 280 już potanieje trochę ;) Ta karta będzie przełomem, ta karta będzie potworem który starczy na długi czas :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Coś czuje, że tak będzie :D

oby, bo mimo wszytko nie wyglada to jakos szczegolnie patrzac tylko na specyfikacja. zmiany wporwadzone w uklad faktycznie musza byc powazne.

ale co mnie cieszy - PhysX :) "bajerek" bardziej przydatny niz dx10.1 by ati, a juz na pewno bedzie mozna go uzyc juz teraz ;) tylko zeby jakos to dzialalo sensowanie, a nie , ze jedna karta robi za PPU. liczenie fizyki w tle normalnych operacji shaderow, na nieuzywanych jednostkach SP, tak bym to widzial ;)

Edytowane przez Sulaco

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Dodaj odpowiedź do tematu...

×   Wklejono zawartość z formatowaniem.   Przywróć formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

Ładowanie


×
×
  • Dodaj nową pozycję...