Skocz do zawartości
Gość delavego

Geforce GTX 470/480

Rekomendowane odpowiedzi

Gość sopi123

ja was gÓpki nie rozumie fanboy fanboy Patrzcie na siebie spoglądając w lustro kazdy ma swój gust proste ?? to tak jakby intel i amd tez kazdy wybiera swój produkt no nie ?? nie rozumie tego przegadywania powinniscie sie isc Kącic do wstydnika za te głupie wypowiedzi... i obrazanie innych

 

Ps. sam bym wybrał GF powód Bo OC lepsze krótko i na temat

Pobór prądu? Jesli cie nie stac dopłacic pare groszy wiecej do rachunku to nie pisz w tym temacie bo to zenada jest...

Moze i ktos woli pare fps wiecej zawsze to róznica a pamietaj gtx480 to jedno jajowiec a radek dwu jajowiec Różnica nie ??

Edytowane przez sopi123

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A ja jestem ciekaw czy doczekamy się wersji 512 w niższym procesie technologicznym z podwyższonymi zegarami - czy raczej kolejnej generacji na bazie obecnej.

 

No i pytanie zasadnicze kiedy ATI da swoją odpowiedź - we wrześniu tego roku?! W sumie cały rok to kupa czasu na zaprojektowanie kolejnej generacji. Chyba że przyjmą wariant półtora roku czyli w okolicach marca 2011r.

 

Niewątpliwie nVidia musi zapełnić segmenty niski i środkowy oraz przenośny - bo na tym firma zarabia prawdziwą kasę...

 

P.S.

 

sopi123 zasadniczo jeśli kasa nie gra roli to zestaw killer do gier na chwilę obecną byłby następujący:

3xGTX480 + Core i7-980X + np.: Rampage III Extreme + zasiłka 1500W + 3x2GB (3x4GB) + chłodzenie wodne (lub freonem jeśli kasa naprawdę nie gra roli i chcesz extreme oc) + inne graty... bawić się można, trzeba mieć tylko kasy jak lodu... zawsze sobie możesz postawić kilka wiatraków albo paneli słonecznych i wtedy nawet za prąd nie zapłacisz... A co do hałasu - to przecież maszyna może stać w innym pomieszczeniu niż się pracuje - trzeba tylko urządzenia wejścia/wyjścia dokabelkować... Możliwości jest wiele :)

Edytowane przez TomaszPaweł

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A ja jestem ciekaw czy doczekamy się wersji 512 w niższym procesie technologicznym z podwyższonymi zegarami - czy raczej kolejnej generacji na bazie obecnej.

 

No i pytanie zasadnicze kiedy ATI da swoją odpowiedź - we wrześniu tego roku?! W sumie cały rok to kupa czasu na zaprojektowanie kolejnej generacji. Chyba że przyjmą wariant półtora roku czyli w okolicach marca 2011r.

 

Niewątpliwie nVidia musi zapełnić segmenty niski i środkowy oraz przenośny - bo na tym firma zarabia prawdziwą kasę...

 

P.S.

 

sopi123 zasadniczo jeśli kasa nie gra roli to zestaw killer do gier na chwilę obecną byłby następujący:

3xGTX480 + Core i7-980X + np.: Rampage III Extreme + zasiłka 1500W + 3x2GB (3x4GB) + chłodzenie wodne (lub freonem jeśli kasa naprawdę nie gra roli i chcesz extreme oc) + inne graty... bawić się można, trzeba mieć tylko kasy jak lodu... zawsze sobie możesz postawić kilka wiatraków albo paneli słonecznych i wtedy nawet za prąd nie zapłacisz... A co do hałasu - to przecież maszyna może stać w innym pomieszczeniu niż się pracuje - trzeba tylko urządzenia wejścia/wyjścia dokabelkować... Możliwości jest wiele :)

 

ta, a bluescreena będziesz resetować schodząc do piwnicy ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gość 3844A704

Wszystko jest do zrobienia na odległość. :D

 

Ale panelami słonecznymi raczej słabo byłoby takiego potwora zasilać ;) Biorąc pod uwagę, że zestaw tylko nadający się do podgrzania przez cały dzień ciepłej wody na wieczór koszuje ok 10000zł i zawiera zaledwie 2 panele to tym na pewno byś kompa nie zasilił xD

 

EOT :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gość chronicsmoke

Tak z czystej ciekawości chciałbym zobaczyć jakieś testy 470/480 z SLI w GTA IV. Testów na portalu znaleźć nie mogę, może na jakichś forach ktoś się "chwalił" wynikami?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

z gniazdka ale to cały zestaw i obciążone 2 karty graficzne, physx też ładnie podgrzewa 8800gt

 

Czyli wez pod uwage sprawnosc zasilacza z 85% , czyli sam komp pobieral by ok. 365w ;)

 

Ps. sam bym wybrał GF powód Bo OC lepsze krótko i na temat

Pobór prądu? Jesli cie nie stac dopłacic pare groszy wiecej do rachunku to nie pisz w tym temacie bo to zenada jest...

 

Lepsze OC ma GF :blink:

A pobor pradu wiaze sie takze z posiadaniem mocniejszego zasilacza :rolleyes:

 

Ale tak było zawsze z tymi kartami za 2000zł. GF 6800Ultra po premierze, kosztował chyba z 1800zł jak dobrze pamiętam i jak byście poczytali teraz komentarze pod testami, to też tam ludzie będą narzekać jak to się grzało i jaki zasilacz będzie trzeba kupować. Dopiero 7300, 7600 były "normalne" pod względem poboru prądu i wydzielania ciepła. 8800GTX po premierze, kosztował 2400zł i byli tacy co go wtedy kupowali. I tutaj, też przecież tak było że to była grzałka. Poprawcie jak żle to pamiętam. Tylko że za tym wszystkim stała wydajność która niszczyła poprzednią generację kart.

 

Więc jak dla mnie Fermi jest właśnie takim samym potworem na swoje czasy jak były wcześniejsze topowe karty. Tylko że teraz zmieniło się to że jest mocna konkurencja od ATI. Bo dawniej Ati wyprzedzało NV chyba tylko w czasach 9700pro , 9800pro które to karty zostały zmiecione przez 6600 i 6800.

 

Dla mnie Fermi powinien wyjść w mniejszym procesie produkcyjnym, i wtedy było by wszystko OK. Ludzie by się zachwycali tymi kartami a NV zbijała kasę. Ale i tak twierdzę że jak by takia 480 kosztowała 1300zł a 470 za 900zł to bym pewnie kupił tą kartę.

 

Tylko wez pod uwage ze jak wychodzil np. 8800 to on nie mial zadnej konkurencji i mogl sobie kosztowac te 2k pln , a takze zwroc uwage na cene jaka miala HD5870 podczas a jaka ma teraz ? Prawie sie nie zmienila.

A co do poboru pradu i halasu to taki 8800 i tak go pobieral sporo mniej niz fermi. Nawet taki HD2900XT uwazany za bardzo glosnego , bardzo goracego , bardzo prodo zernego jest cichszy , pobiera mniej pradu i jest cichszy od fermiego.

Gdyby fermi mial cene bliska HD5870 to by znalazl znacznie wiecej chetnych i moze nie bylo by az tyle negatywnych komentarzy na jego temat.

Edytowane przez Maciem

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

znaczy się która? bo ta po lewej to jest referent. ta po prawej to jest konstrukcja galaxy (co zresztą ewidentnie widać).

 

galaxy wygląda świetnie!

 

no to już rozumiem ;)

referenty nvidi... te nie wycentrowane otwory wentylatorów wyglądają obrzydliwie...

Edytowane przez bzzzzzz

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

moze sie zle sprecyzowalem . Pytanie mialo byc ktora karta jest najbrzydsza jaka kiedykolwiek widzial ?

Moze byc ta galaxy , wyglada troche ja cos... ;D

 

Mialem na mysli tego gniota od galaxy....

Przecierz jest tyle ciekawych i ladnych konstrukcji chlodzen naprzyklad na ati.

Nie mogli sie odwzorowac ?

Taki kloc... fuj.

Wstyd dla milosnikow nvidi :(

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Mam juz Gtx-a 480 MSI. Karta jest cicha w idle, temp do 50 stopni. W Vantage temp max ok 90 stopni. PO podkreceniu ok 93 stopnie.

 

Mozesz zobaczyc czy wyszedl nibitor obslogujacy ta karte ?

 

Gratulacje fajnego zakupu :)

 

EDIT:

 

nibitor nie wyszedl..... jeszcze.

 

EDIT:

 

Widze, ze mnie nvidia uslyszala i cos robi w kierunku chlodzen kart:

 

Dołączona grafikaDołączona grafika

 

Juz lepiej nie ?

Edytowane przez leven

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Na pclabie, ukazał się art z GTX-em 470:

GeForce GTX 470 kontra Radeon HD 5850 :: PCLab.pl

 

Dołączona grafika

 

Dołączona grafika

 

GTX470 jest szybszy o 2% od HD5850 i 15% wolniejszy od HD5870.

 

Do tego ciekawy fragment o Metro:

Na chwilę zatrzymamy się przy wynikach z gry Metro 2033 uruchomionej w trybie DirectX 11. Przyznajemy się bez bicia, że nie rozumiemy, co z nimi jest nie tak. Możliwe, że do metodyki ustalonej przed testami GeForce'a GTX 480 wkradł się jakiś błąd. Możliwe, że to kwestia sterowników (ale mało) albo czegoś jeszcze innego. Ale teraz nie wygląda to już tak nadzwyczajnie jak podczas testowania GTX-a 480. GTX 470 plasuje się pomiędzy dwoma Radeonami. Ponowiliśmy pomiary wydajności GTX-a 470 zaraz po zorientowaniu się, że coś jest nie tak, ale wynik ciągle był taki sam. Niestety, chwilowo nie mamy dostępu do GTX-a 480, więc nie możemy sprawdzić wyniku uzyskanego przez tę kartę. Poza tym kilku Czytelników prosiło nas o porównanie jakości obrazu generowanego przez Radeony i GeForce'y w tej grze. Postanowiliśmy to zrobić:

 

Nie trzeba się specjalnie przyglądać, aby zauważyć, że w przypadku GeForce'a obraz jest bardziej rozmyty i mniej wyraźny. Nie wiemy, jaki to może mieć wpływ na wydajność, ale na razie wyniki z Metro 2033 należy czytać z przymrużeniem oka.

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie rozumiem....

Przeca widac jak byk, ze chlodzenie jest wielkosci calej karty z 4 rurkami cieplnymi w obie strony.

To taki troszke mniejszy gtx accelero extreme z 5 pipkami.

Co najmniej 15 st C mniej niz referent.

Jako posiadacz swietnej karty powinienes docenic takie chlodzenie no chyba, ze masz caly czas zalozonego referenta na gpu :smoke:

Edytowane przez leven

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Widze, ze mnie nvidia uslyszala i cos robi w kierunku chlodzen kart:

 

Juz lepiej nie ?

 

Nvidia na pewno Cie nie uslyszala bo to nie ona montuje nie referencyjne chlodzenia tylko jej dystrybutorzy ;]

  • Upvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Widze, ze mnie nvidia uslyszala i cos robi w kierunku chlodzen kart:

nvidia to robi samo GPU...reszte robią poszczególni producenci kart Edytowane przez rafa

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No juz dobrze.... zle to napisalem ;-)

Chcialem tylko napomknac, ze cos sie zaczyna dziac w kwestii chlodzenia fermii.

 

Wlasciwie zastanawialem sie ostatnio dla czego od razu nvidia jak i ati nie projektuja wlasnie takich chlodzen jak te nowe fermii beda miec od zotaca ?

Gdyby tak bylo od razu, to nie byloby psioczenia na wysokie temp. i glosnosc fermii.

Oczywiscie producenci chlodzen mieliby mniejsze zyski a producenci kart wieksze koszty produkcji, ale tu przecierz chodzi o komfort pracy.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No juz dobrze.... zle to napisalem ;-)

Chcialem tylko napomknac, ze cos sie zaczyna dziac w kwestii chlodzenia fermii.

 

Wlasciwie zastanawialem sie ostatnio dla czego od razu nvidia jak i ati nie projektuja wlasnie takich chlodzen jak te nowe fermii beda miec od zotaca ?

Gdyby tak bylo od razu, to nie byloby psioczenia na wysokie temp. i glosnosc fermii.

Oczywiscie producenci chlodzen mieliby mniejsze zyski a producenci kart wieksze koszty produkcji, ale tu przecierz chodzi o komfort pracy.

 

nie projektują bo przy tych chłodzeniach całe ciepło zostaje w obudowie (co przy słabej wentylacji do niczego dobrego nie prowadzi), dlatego robią turbiny z wyrzutem powietrza na zewnątrz, jak dla mnie to mogli by zrobić turbiny 3-4 slotowe większy radiator by się zmieścił, obroty poszły by w dół a i całe gorące powietrze wylatywało by na zewnątrz

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

(...)Poza tym kilku Czytelników prosiło nas o porównanie jakości obrazu generowanego przez Radeony i GeForce'y w tej grze. Postanowiliśmy to zrobić:

 

Nie trzeba się specjalnie przyglądać, aby zauważyć, że w przypadku GeForce'a obraz jest bardziej rozmyty i mniej wyraźny. Nie wiemy, jaki to może mieć wpływ na wydajność, ale na razie wyniki z Metro 2033 należy czytać z przymrużeniem oka. [/i]

 

Litości! Forum ma trzymać poziom i kolejne bzdury by pclol nam nie potrzebne. Sprawa Metro była poruszana jakiś czas temu, ale lole się obudzili i teraz ktoś nagle wpadł na (wydawać by się mogło) "sensowny" art i masz. Dalej tłuką to samo :wink:

 

Tutaj link do czegoś poważniejszego Metro 2033 Image Quality Followup - Metro 2033 Image Quality Followup | [H]ard|OCP

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Zacytuję ekipę AnandTech która bezpośrednio konsultowała się z nVidią w sprawie DP:

" After hearing word after the launch that NVIDIA has artificially capped the GTX 400 series' double precision (FP64) performance, we asked NVIDIA for confirmation. NVIDIA has confirmed it - the GTX 400 series' FP64 performance is capped at 1/8th (12.5%) of its FP32 performance, as opposed to what the hardware natively can do of 1/2 (50%) FP32. This is a market segmentation choice - Tesla of course will not be handicapped in this manner."

 

Dołączona grafika

coś mi w tych wynikach nie pasuje - skoro GF100 teoretycznie w DP (FP64) ma mieć 50% wydajności SP (FP32) a realnie ma być obcięte do 12.5% to wg pomiarów z Sisoft teoretycznie DP powinno mieć 770 (troche mniej od 5970 a realnie powinno być 192,5 - wg wyniku z sisoft wydajność DP jest ok. 5.5% w stosunku do SP Edytowane przez Raptor

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

coś mi w tych wynikach nie pasuje - skoro GF100 teoretycznie w DP (FP64) ma mieć 50% wydajności SP (FP32) a realnie ma być obcięte do 12.5% to wg pomiarów z Sisoft teoretycznie DP powinno mieć 770 (troche mniej od 5970 a realnie powinno być 192,5 - wg wyniku z sisoft wydajność DP jest ok. 5.5% w stosunku do SP

 

Imo wyniki w normie. Wynik DP powinien być 50% wydajności SP czyli 50% z 1540 jest 770. Jeżeli to 770 ograniczymy do 12,5% to mamy: 770 - 100% wydajności DP, a 12,5% z tego wyniku będzie 96. W teście uzyskali 85 czyli jakieś 11%. Imho wszystko się zgadza :wink: pzdr

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

no tak ale nv mówiła że wyniki w DP będą na poziomie 1/8 SP a nie 1/8 DP

 

 

the GTX 400 series' FP64 performance is capped at 1/8th (12.5%) of its FP32 performance

czyli powinno być napisane FP64 = 1/16 FP32

Edytowane przez Raptor

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Dodaj odpowiedź do tematu...

×   Wklejono zawartość z formatowaniem.   Przywróć formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

Ładowanie


×
×
  • Dodaj nową pozycję...