Skocz do zawartości
cavarr

Geforce GTX 260/280

Rekomendowane odpowiedzi

http://www.vr-zone.com/articles/GeForce_99..._Slot/5740.html Zobaczcie, z tym zasilaniem wcale się nie myliłem może , to ustrojstwo ma brać 240W TDP. :o

Liczy się realny pobór mocy karty , a nie cyferki od nvidii. Przykładowo nvidia podaje dla 8800gt 110wat tdp , a karta realnie pobiera 78wat.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Cytat z newsa podanego wyżej: "Nvidia przewiduje, że układ ten będzie bardziej wydajny nawet od 55-nanometrowego G92b." Czyli GT200 będzie nowym chipem ale nie wnoszącym większej wydajności.... a może nawet nie będzie nowy, tylko jakiś odgrzewany kotlet... i Jeszcze 200W TDP.... Jednym słowem ŻAL

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wg mnie gt200 to będzie wtopa nVidii, nie mają już pomysłu jak poprawić swoje karty co było widać w przypadku 9600 i 9800, które w stosunku do udanej serii 8800 65nm nie poczyniła żadnych postępów.

Poza tym to planowane TDP na poziom 250W dla pojedynczej karty zapowiada wzrost rachunków za prąd i wymianę zasilaczy u 95% chętnych na te karty o ile w ogóle tacy się znajdą bo tak duże GPU będzie też miało swoją wygórowaną cenę.

Nie, to raczej nie, jakiś ślepy zaułek się dała nVidia zapędzić.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gość 71proste

Dobre 500/550W przy c2d spokojnie da radę niema co siać paniki.

dokladnie 9800GX2 tez mial pobierac nie wiadomo ile energii,co poniektorzy pokupowali jakies powalone zasilacze a u mnie corsair 620W ciagnie ta podkrecona karte 745/1150,e8500@4.8Ghz,4gb,dyski itd...i nawet sie nie poci,wiec nie ma co panikowac :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

dokladnie 9800GX2 tez mial pobierac nie wiadomo ile energii,co poniektorzy pokupowali jakies powalone zasilacze a u mnie corsair 620W ciagnie ta podkrecona karte 745/1150,e8500@4.8Ghz,4gb,dyski itd...i nawet sie nie poci,wiec nie ma co panikowac :D

Twój zasilacz wystarczy, ale przeciętne, a nawet dobre 450W już nie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

(...)

Zwróćcie uwagę na 2 ośmiopinowe wtyki dodatkowego zasilania. Oj, będzie to chyba najbardziej prądożerna karta w historii...

I tak się tworzy mity! Tylko pogratulować Panom z in4 dobrego humoru lubią podkolorować to i tamto, aby zdobywać czytelników :wink:

 

Jeżeli już chcemy podawać plotki to warto zajrzeć do źródła

 

http://translate.google.com/translate?u=ht...zh-CN&tl=en

 

Jak widać, nie ma mowy o dwóch wtykach 8pin. Na drugiej stronie tego arta są obrazki gołej karty i widać coś zupełnie innego.

 

Proszę o cierpliwość i podawanie ciekawych info i nie wyciągnie pochopnych wniosków :wink: pzdr

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jak ktoś nie ma pojęcia to właśnie wysnuwa takie banialuki odnośnie poboru prądu , przecież wiadomo , że ta karta będzie pobierać mniej mocy jak 9800gx2 , która pobiera 180wat.

Edytowane przez sideband

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jak widać, nie ma mowy o dwóch wtykach 8pin. Na drugiej stronie tego arta są obrazki gołej karty i widać coś zupełnie innego.

 

Proszę o cierpliwość i podawanie ciekawych info i nie wyciągnie pochopnych wniosków :wink: pzdr

Dobrze, niech będzie, mój błąd. Zapomniałem o tych artach, sam je widziałem parę dni temu. Faktycznie, karta będzie pobierać mniej prądu niż 9800GX2. Ale widać też, że rdzeń GT200 jest wielkością podobny do G80, czyli karta będzie gorąca. Taki wniosek może być? :wink:

 

Odniosę się jeszcze do wypowiedzi poniżej. Czyli według ciebie jestem opiniotwórczy ;) ? Forum tworzą ludzie, a tam gdzie są ludzie, pojawiają się błędy. A tacy ludzie jak ty mogą taki błąd wytknąć, a ja mogę przyznać ci rację. Po prostu zejdź na ziemię i zauważ, że tak zrobiłem. Koniec OT.

Edytowane przez Gi3r3k

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wiesz Gierek tu nie chodzi czy coś może być czy też nie :wink: Sprawa wygląda tak, że jak ma być forum na poziomie to podajemy jak najdokładniejsze info, aby potem wyciągnąć wnioski. Jeżeli tak się nie dzieję, to mamy coś co się dzieję w innym dziale. To taki głuchy telefon, ktoś coś powie drugi usłyszy (przeczyta :blink: jak jest w przypadku tego nieszczęsnego in4) piąte przez dziesiąte i uznaje to za pewnik, a reszta biegnie za stadem :) Rozumiesz? :wink: pzdr

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gość 71proste

Masz jakieś konkretne info to zapodaj, bo sam jestem ciekaw :wink: Jeżeli nie oszczędź sobie klawiatury tutaj burdelu nie będziemy robić :-| pzdr

 

hehe dokladnie,bez podejrzen panowie,bo sporo osob to czyta i sugeruje sie poszczegolnymi wypowiedziami ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wiesz Gierek tu nie chodzi czy coś może być czy też nie :wink: Sprawa wygląda tak, że jak ma być forum na poziomie to podajemy jak najdokładniejsze info, aby potem wyciągnąć wnioski. Jeżeli tak się nie dzieję, to mamy coś co się dzieję w innym dziale. To taki głuchy telefon, ktoś coś powie drugi usłyszy (przeczyta :blink: jak jest w przypadku tego nieszczęsnego in4) piąte przez dziesiąte i uznaje to za pewnik, a reszta biegnie za stadem :) Rozumiesz? :wink: pzdr

No jakoś Ci nie uwierzyłem. Gierek przynajmniej stara się zachować obiektywizm i oprzeć się na faktach, a u Ciebie ciągle jedno prawie jak na falach Rydzyka.

I w ogóle Cię nie rozumiem. Niech będzie, ze to ja jestem za głupi <_<

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No jakoś Ci nie uwierzyłem.

no wlasnie o to caly czas chodzi - nie masz wierzyc, tylko rozumiec ;)

no off oczywiscie :)

 

btw: tak przygladajac sie tym "schematom" zastanawia mnie ten dodatkowy ukladzik przy portach dvi - czyzby byl to znowu nv IO? i czyzby znowu zabraklo im miejsca w samym GPU. w sumie jest to najprostszy sposob odchudzenia ukladu, jezeli wymiar tech nie daje rady.

Edytowane przez Sulaco

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gość 71proste

Hmm masz racje tak to wyglada,szczerze to wolalbym,zeby wszystko bylo w miejscu gpu,zawsze woduje karty i nie przepadam za fullcoverami a nvio na 8800GTX'ie grzal sie dosc znaczaco.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Hmm.... Wydajnościowo podobno GT200 ma być na poziomie 2-2,5X GF8800GTX więc nawet OK :wink: Druga sprawa to to, czy pojawi się jakiś GTS-ik na GT200 czy też jedynymi kartami na bazie tego układu będą GTX280 i GTX260 (jako odpowiednik takiego GTS-a).... Fajnie by było gdyby pojawiła się jeszcze jedna karta na tym układzie w cenie ok 1000 PLN ze specką typu conajmniej 144SP/48TMU/768MB/24ROPy.... Czyli cosik ala GF8800GT :)....

 

Ciekaw jestem też czy w samej architekturze zaszły jakieś znaczace usprawnienia (np. czy została zwiększona wydajność i efektywność jednostek SP w stosunku 1:1 do tych znanych z G8x/9x).... Patrząc jednak na prawdopodobne wyniki wydajności ( te ponad 13k pkt w Vantage`u) można domniemywać że jednak tak, bowiem nigdy nie było tak, że jakiś układ daje ponad 100% wzrostu wydajności w porównaniu do poprzedników przy procentowo niższym "wzroście" specyfikacji. (240SP vs 128SP, 32ROPy vs 24ROPy, 512-bit vs 384-bit)....

 

Mam nadzieję że jeszcze w tym roku NVIDIA przejdzie z GT200 na wymiar 55nm :wink:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gość 71proste

Hmm.... Wydajnościowo podobno GT200 ma być na poziomie 2-2,5X GF8800GTX więc nawet OK :wink: Druga sprawa to to, czy pojawi się jakiś GTS-ik na GT200 czy też jedynymi kartami na bazie tego układu będą GTX280 i GTX260

znajac zycie nvidia zasypie nas tego tpu kartami o to bym sie nie martwil,jeszcze sie zdazysz pogubic w nazewnictwie-spokojna glowa ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Computex 2008 Specifications of GeForce GTX 280 and GTX 260

 

Dołączona grafika

 

Info pochodzi z http://forum.donanimhaber.com/m_23295300/tm.htm , więc źródło całkiem godne zaufanie. Ciekawe do której karty odnosi się 50% zwyżka w wydajności.

9900GTX, 9800GX2, 8800 Ultra - stawiam na pierwszą pozycję

 

Dziwi brak DX10.1 - z marketingowego punktu nv będzie trochę w tyle za ati ;)

Edytowane przez cavarr

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

(...)Ciekawe do której karty odnosi się 50% zwyżka w wydajności. (...)

Mi się wydaję, że w tym zwrocie chodzi raczej o to, że sp drugiej generacji będą oferowały 50% więcej wydajności w stosunku do sp pierwszej generacji :) Ale niech mnie ktoś bardziej biegły w angielskim poprawi :wink: pzdr

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Mi się wydaję, że w tym zwrocie chodzi raczej o to, że sp drugiej generacji będą oferowały 50% więcej wydajności w stosunku do sp pierwszej generacji :) Ale niech mnie ktoś bardziej biegły w angielskim poprawi :wink: pzdr

Nie, na pewno chodzi o 50% przyrost w grach. Masz napisane "gaming performance" a słowo "through" traktuję jako "dzięki, poprzez" 240 SP.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Dodaj odpowiedź do tematu...

×   Wklejono zawartość z formatowaniem.   Przywróć formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

Ładowanie


×
×
  • Dodaj nową pozycję...