Radzyn Opublikowano 28 Kwietnia 2008 Zgłoś Opublikowano 28 Kwietnia 2008 http://twojepc.pl/news_wiecej.php?id=16675 A mnie tak ciekawi jaki zasilacz uciągnie te olbrzymy :) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Stjepan666 Opublikowano 28 Kwietnia 2008 Zgłoś Opublikowano 28 Kwietnia 2008 Mi się wydaję że jakiś Tagan 1000W da radę. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Radzyn Opublikowano 28 Kwietnia 2008 Zgłoś Opublikowano 28 Kwietnia 2008 Mi się wydaję że jakiś Tagan 1000W da radę. Nawet nie strasz :rolleyes: Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Stjepan666 Opublikowano 28 Kwietnia 2008 Zgłoś Opublikowano 28 Kwietnia 2008 http://www.vr-zone.com/articles/GeForce_99..._Slot/5740.html Zobaczcie, z tym zasilaniem wcale się nie myliłem może , to ustrojstwo ma brać 240W TDP. :o Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
cavarr Opublikowano 28 Kwietnia 2008 Zgłoś Opublikowano 28 Kwietnia 2008 (edytowane) Dobre 500/550W przy c2d spokojnie da radę niema co siać paniki. Edytowane 28 Kwietnia 2008 przez cavarr Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
sideband Opublikowano 28 Kwietnia 2008 Zgłoś Opublikowano 28 Kwietnia 2008 http://www.vr-zone.com/articles/GeForce_99..._Slot/5740.html Zobaczcie, z tym zasilaniem wcale się nie myliłem może , to ustrojstwo ma brać 240W TDP. :oLiczy się realny pobór mocy karty , a nie cyferki od nvidii. Przykładowo nvidia podaje dla 8800gt 110wat tdp , a karta realnie pobiera 78wat. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
neomagnet Opublikowano 11 Maja 2008 Zgłoś Opublikowano 11 Maja 2008 Cytat z newsa podanego wyżej: "Nvidia przewiduje, że układ ten będzie bardziej wydajny nawet od 55-nanometrowego G92b." Czyli GT200 będzie nowym chipem ale nie wnoszącym większej wydajności.... a może nawet nie będzie nowy, tylko jakiś odgrzewany kotlet... i Jeszcze 200W TDP.... Jednym słowem ŻAL Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
cavarr Opublikowano 12 Maja 2008 Zgłoś Opublikowano 12 Maja 2008 Mechanical drawing of NV upcoming D10U P651 3D model overlaid on a G80GTX: vr-zone potwierdził, że nie jest to fake Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
maxymili Opublikowano 12 Maja 2008 Zgłoś Opublikowano 12 Maja 2008 Wg mnie gt200 to będzie wtopa nVidii, nie mają już pomysłu jak poprawić swoje karty co było widać w przypadku 9600 i 9800, które w stosunku do udanej serii 8800 65nm nie poczyniła żadnych postępów. Poza tym to planowane TDP na poziom 250W dla pojedynczej karty zapowiada wzrost rachunków za prąd i wymianę zasilaczy u 95% chętnych na te karty o ile w ogóle tacy się znajdą bo tak duże GPU będzie też miało swoją wygórowaną cenę. Nie, to raczej nie, jakiś ślepy zaułek się dała nVidia zapędzić. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość chronicsmoke Opublikowano 12 Maja 2008 Zgłoś Opublikowano 12 Maja 2008 Ja chce w końcu coś nowego a nie odświeżanie 8800 Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość 71proste Opublikowano 12 Maja 2008 Zgłoś Opublikowano 12 Maja 2008 Dobre 500/550W przy c2d spokojnie da radę niema co siać paniki. dokladnie 9800GX2 tez mial pobierac nie wiadomo ile energii,co poniektorzy pokupowali jakies powalone zasilacze a u mnie corsair 620W ciagnie ta podkrecona karte 745/1150,e8500@4.8Ghz,4gb,dyski itd...i nawet sie nie poci,wiec nie ma co panikowac :D Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
maxymili Opublikowano 13 Maja 2008 Zgłoś Opublikowano 13 Maja 2008 dokladnie 9800GX2 tez mial pobierac nie wiadomo ile energii,co poniektorzy pokupowali jakies powalone zasilacze a u mnie corsair 620W ciagnie ta podkrecona karte 745/1150,e8500@4.8Ghz,4gb,dyski itd...i nawet sie nie poci,wiec nie ma co panikowac :DTwój zasilacz wystarczy, ale przeciętne, a nawet dobre 450W już nie. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
chemiczny_ali Opublikowano 13 Maja 2008 Zgłoś Opublikowano 13 Maja 2008 Masz jakieś konkretne info to zapodaj, bo sam jestem ciekaw :wink: Jeżeli nie oszczędź sobie klawiatury tutaj burdelu nie będziemy robić :-| pzdr Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gi3r3k Opublikowano 13 Maja 2008 Zgłoś Opublikowano 13 Maja 2008 (edytowane) Skoro nikt nie zamieścił linka do zdjęć 9900GTX, to wrzucam: Pierwsze zdjęcia 9900GTX... Edytowane 14 Maja 2008 przez Gi3r3k Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
chemiczny_ali Opublikowano 13 Maja 2008 Zgłoś Opublikowano 13 Maja 2008 (...) Zwróćcie uwagę na 2 ośmiopinowe wtyki dodatkowego zasilania. Oj, będzie to chyba najbardziej prądożerna karta w historii... I tak się tworzy mity! Tylko pogratulować Panom z in4 dobrego humoru lubią podkolorować to i tamto, aby zdobywać czytelników :wink: Jeżeli już chcemy podawać plotki to warto zajrzeć do źródła http://translate.google.com/translate?u=ht...zh-CN&tl=en Jak widać, nie ma mowy o dwóch wtykach 8pin. Na drugiej stronie tego arta są obrazki gołej karty i widać coś zupełnie innego. Proszę o cierpliwość i podawanie ciekawych info i nie wyciągnie pochopnych wniosków :wink: pzdr Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
sideband Opublikowano 13 Maja 2008 Zgłoś Opublikowano 13 Maja 2008 (edytowane) Jak ktoś nie ma pojęcia to właśnie wysnuwa takie banialuki odnośnie poboru prądu , przecież wiadomo , że ta karta będzie pobierać mniej mocy jak 9800gx2 , która pobiera 180wat. Edytowane 13 Maja 2008 przez sideband Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gi3r3k Opublikowano 13 Maja 2008 Zgłoś Opublikowano 13 Maja 2008 (edytowane) Jak widać, nie ma mowy o dwóch wtykach 8pin. Na drugiej stronie tego arta są obrazki gołej karty i widać coś zupełnie innego. Proszę o cierpliwość i podawanie ciekawych info i nie wyciągnie pochopnych wniosków :wink: pzdr Dobrze, niech będzie, mój błąd. Zapomniałem o tych artach, sam je widziałem parę dni temu. Faktycznie, karta będzie pobierać mniej prądu niż 9800GX2. Ale widać też, że rdzeń GT200 jest wielkością podobny do G80, czyli karta będzie gorąca. Taki wniosek może być? :wink: Odniosę się jeszcze do wypowiedzi poniżej. Czyli według ciebie jestem opiniotwórczy ;) ? Forum tworzą ludzie, a tam gdzie są ludzie, pojawiają się błędy. A tacy ludzie jak ty mogą taki błąd wytknąć, a ja mogę przyznać ci rację. Po prostu zejdź na ziemię i zauważ, że tak zrobiłem. Koniec OT. Edytowane 14 Maja 2008 przez Gi3r3k Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
chemiczny_ali Opublikowano 13 Maja 2008 Zgłoś Opublikowano 13 Maja 2008 Wiesz Gierek tu nie chodzi czy coś może być czy też nie :wink: Sprawa wygląda tak, że jak ma być forum na poziomie to podajemy jak najdokładniejsze info, aby potem wyciągnąć wnioski. Jeżeli tak się nie dzieję, to mamy coś co się dzieję w innym dziale. To taki głuchy telefon, ktoś coś powie drugi usłyszy (przeczyta :blink: jak jest w przypadku tego nieszczęsnego in4) piąte przez dziesiąte i uznaje to za pewnik, a reszta biegnie za stadem :) Rozumiesz? :wink: pzdr Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość 71proste Opublikowano 13 Maja 2008 Zgłoś Opublikowano 13 Maja 2008 Masz jakieś konkretne info to zapodaj, bo sam jestem ciekaw :wink: Jeżeli nie oszczędź sobie klawiatury tutaj burdelu nie będziemy robić :-| pzdr hehe dokladnie,bez podejrzen panowie,bo sporo osob to czyta i sugeruje sie poszczegolnymi wypowiedziami ;) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
maxymili Opublikowano 14 Maja 2008 Zgłoś Opublikowano 14 Maja 2008 Wiesz Gierek tu nie chodzi czy coś może być czy też nie :wink: Sprawa wygląda tak, że jak ma być forum na poziomie to podajemy jak najdokładniejsze info, aby potem wyciągnąć wnioski. Jeżeli tak się nie dzieję, to mamy coś co się dzieję w innym dziale. To taki głuchy telefon, ktoś coś powie drugi usłyszy (przeczyta :blink: jak jest w przypadku tego nieszczęsnego in4) piąte przez dziesiąte i uznaje to za pewnik, a reszta biegnie za stadem :) Rozumiesz? :wink: pzdrNo jakoś Ci nie uwierzyłem. Gierek przynajmniej stara się zachować obiektywizm i oprzeć się na faktach, a u Ciebie ciągle jedno prawie jak na falach Rydzyka. I w ogóle Cię nie rozumiem. Niech będzie, ze to ja jestem za głupi <_< Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Sulaco Opublikowano 14 Maja 2008 Zgłoś Opublikowano 14 Maja 2008 (edytowane) No jakoś Ci nie uwierzyłem.no wlasnie o to caly czas chodzi - nie masz wierzyc, tylko rozumiec ;) no off oczywiscie :) btw: tak przygladajac sie tym "schematom" zastanawia mnie ten dodatkowy ukladzik przy portach dvi - czyzby byl to znowu nv IO? i czyzby znowu zabraklo im miejsca w samym GPU. w sumie jest to najprostszy sposob odchudzenia ukladu, jezeli wymiar tech nie daje rady. Edytowane 14 Maja 2008 przez Sulaco Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość 71proste Opublikowano 15 Maja 2008 Zgłoś Opublikowano 15 Maja 2008 Hmm masz racje tak to wyglada,szczerze to wolalbym,zeby wszystko bylo w miejscu gpu,zawsze woduje karty i nie przepadam za fullcoverami a nvio na 8800GTX'ie grzal sie dosc znaczaco. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Domell Opublikowano 17 Maja 2008 Zgłoś Opublikowano 17 Maja 2008 Hmm.... Wydajnościowo podobno GT200 ma być na poziomie 2-2,5X GF8800GTX więc nawet OK :wink: Druga sprawa to to, czy pojawi się jakiś GTS-ik na GT200 czy też jedynymi kartami na bazie tego układu będą GTX280 i GTX260 (jako odpowiednik takiego GTS-a).... Fajnie by było gdyby pojawiła się jeszcze jedna karta na tym układzie w cenie ok 1000 PLN ze specką typu conajmniej 144SP/48TMU/768MB/24ROPy.... Czyli cosik ala GF8800GT :).... Ciekaw jestem też czy w samej architekturze zaszły jakieś znaczace usprawnienia (np. czy została zwiększona wydajność i efektywność jednostek SP w stosunku 1:1 do tych znanych z G8x/9x).... Patrząc jednak na prawdopodobne wyniki wydajności ( te ponad 13k pkt w Vantage`u) można domniemywać że jednak tak, bowiem nigdy nie było tak, że jakiś układ daje ponad 100% wzrostu wydajności w porównaniu do poprzedników przy procentowo niższym "wzroście" specyfikacji. (240SP vs 128SP, 32ROPy vs 24ROPy, 512-bit vs 384-bit).... Mam nadzieję że jeszcze w tym roku NVIDIA przejdzie z GT200 na wymiar 55nm :wink: Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Sulaco Opublikowano 17 Maja 2008 Zgłoś Opublikowano 17 Maja 2008 Mam nadzieję że jeszcze w tym roku NVIDIA przejdzie z GT200 na wymiar 55nm :wink:tylko, zeby przejscie z 65 na 55, znowu nie wiazalo sie z cieciem arch :/ Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość 71proste Opublikowano 17 Maja 2008 Zgłoś Opublikowano 17 Maja 2008 Hmm.... Wydajnościowo podobno GT200 ma być na poziomie 2-2,5X GF8800GTX więc nawet OK :wink: Druga sprawa to to, czy pojawi się jakiś GTS-ik na GT200 czy też jedynymi kartami na bazie tego układu będą GTX280 i GTX260 znajac zycie nvidia zasypie nas tego tpu kartami o to bym sie nie martwil,jeszcze sie zdazysz pogubic w nazewnictwie-spokojna glowa ;) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
cavarr Opublikowano 17 Maja 2008 Zgłoś Opublikowano 17 Maja 2008 (edytowane) Computex 2008 Specifications of GeForce GTX 280 and GTX 260 Info pochodzi z http://forum.donanimhaber.com/m_23295300/tm.htm , więc źródło całkiem godne zaufanie. Ciekawe do której karty odnosi się 50% zwyżka w wydajności. 9900GTX, 9800GX2, 8800 Ultra - stawiam na pierwszą pozycję Dziwi brak DX10.1 - z marketingowego punktu nv będzie trochę w tyle za ati ;) Edytowane 17 Maja 2008 przez cavarr Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
chemiczny_ali Opublikowano 17 Maja 2008 Zgłoś Opublikowano 17 Maja 2008 (...)Ciekawe do której karty odnosi się 50% zwyżka w wydajności. (...)Mi się wydaję, że w tym zwrocie chodzi raczej o to, że sp drugiej generacji będą oferowały 50% więcej wydajności w stosunku do sp pierwszej generacji :) Ale niech mnie ktoś bardziej biegły w angielskim poprawi :wink: pzdr Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Tagasu Opublikowano 17 Maja 2008 Zgłoś Opublikowano 17 Maja 2008 To 50% to dla mnie póki co puste słowa - mało możliwe, aby nastąpił aż taki wzrost wydajności. A zresztą, poczekamy - zobaczymy ;) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gi3r3k Opublikowano 17 Maja 2008 Zgłoś Opublikowano 17 Maja 2008 Mi się wydaję, że w tym zwrocie chodzi raczej o to, że sp drugiej generacji będą oferowały 50% więcej wydajności w stosunku do sp pierwszej generacji :) Ale niech mnie ktoś bardziej biegły w angielskim poprawi :wink: pzdr Nie, na pewno chodzi o 50% przyrost w grach. Masz napisane "gaming performance" a słowo "through" traktuję jako "dzięki, poprzez" 240 SP. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
bociczek Opublikowano 17 Maja 2008 Zgłoś Opublikowano 17 Maja 2008 (edytowane) Szkoda, że to nie polski screen :D. CUDA Technology :D Edytowane 17 Maja 2008 przez bociczek Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...