xtremesystems Opublikowano 6 Maja 2010 Zgłoś Opublikowano 6 Maja 2010 no nareszcie wieksze dostawy gtx480.. i cenowo juz dobija do 1.8k (przerwany monopol :D ) jeszcze ze 100 zl w dol i mozna brac ze 2 sztuki Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość sopi123 Opublikowano 6 Maja 2010 Zgłoś Opublikowano 6 Maja 2010 (edytowane) ja was gÓpki nie rozumie fanboy fanboy Patrzcie na siebie spoglądając w lustro kazdy ma swój gust proste ?? to tak jakby intel i amd tez kazdy wybiera swój produkt no nie ?? nie rozumie tego przegadywania powinniscie sie isc Kącic do wstydnika za te głupie wypowiedzi... i obrazanie innych Ps. sam bym wybrał GF powód Bo OC lepsze krótko i na temat Pobór prądu? Jesli cie nie stac dopłacic pare groszy wiecej do rachunku to nie pisz w tym temacie bo to zenada jest... Moze i ktos woli pare fps wiecej zawsze to róznica a pamietaj gtx480 to jedno jajowiec a radek dwu jajowiec Różnica nie ?? Edytowane 6 Maja 2010 przez sopi123 Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
TomaszPaweł Opublikowano 6 Maja 2010 Zgłoś Opublikowano 6 Maja 2010 (edytowane) A ja jestem ciekaw czy doczekamy się wersji 512 w niższym procesie technologicznym z podwyższonymi zegarami - czy raczej kolejnej generacji na bazie obecnej. No i pytanie zasadnicze kiedy ATI da swoją odpowiedź - we wrześniu tego roku?! W sumie cały rok to kupa czasu na zaprojektowanie kolejnej generacji. Chyba że przyjmą wariant półtora roku czyli w okolicach marca 2011r. Niewątpliwie nVidia musi zapełnić segmenty niski i środkowy oraz przenośny - bo na tym firma zarabia prawdziwą kasę... P.S. sopi123 zasadniczo jeśli kasa nie gra roli to zestaw killer do gier na chwilę obecną byłby następujący: 3xGTX480 + Core i7-980X + np.: Rampage III Extreme + zasiłka 1500W + 3x2GB (3x4GB) + chłodzenie wodne (lub freonem jeśli kasa naprawdę nie gra roli i chcesz extreme oc) + inne graty... bawić się można, trzeba mieć tylko kasy jak lodu... zawsze sobie możesz postawić kilka wiatraków albo paneli słonecznych i wtedy nawet za prąd nie zapłacisz... A co do hałasu - to przecież maszyna może stać w innym pomieszczeniu niż się pracuje - trzeba tylko urządzenia wejścia/wyjścia dokabelkować... Możliwości jest wiele :) Edytowane 6 Maja 2010 przez TomaszPaweł Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
qhash Opublikowano 6 Maja 2010 Zgłoś Opublikowano 6 Maja 2010 A ja jestem ciekaw czy doczekamy się wersji 512 w niższym procesie technologicznym z podwyższonymi zegarami - czy raczej kolejnej generacji na bazie obecnej. No i pytanie zasadnicze kiedy ATI da swoją odpowiedź - we wrześniu tego roku?! W sumie cały rok to kupa czasu na zaprojektowanie kolejnej generacji. Chyba że przyjmą wariant półtora roku czyli w okolicach marca 2011r. Niewątpliwie nVidia musi zapełnić segmenty niski i środkowy oraz przenośny - bo na tym firma zarabia prawdziwą kasę... P.S. sopi123 zasadniczo jeśli kasa nie gra roli to zestaw killer do gier na chwilę obecną byłby następujący: 3xGTX480 + Core i7-980X + np.: Rampage III Extreme + zasiłka 1500W + 3x2GB (3x4GB) + chłodzenie wodne (lub freonem jeśli kasa naprawdę nie gra roli i chcesz extreme oc) + inne graty... bawić się można, trzeba mieć tylko kasy jak lodu... zawsze sobie możesz postawić kilka wiatraków albo paneli słonecznych i wtedy nawet za prąd nie zapłacisz... A co do hałasu - to przecież maszyna może stać w innym pomieszczeniu niż się pracuje - trzeba tylko urządzenia wejścia/wyjścia dokabelkować... Możliwości jest wiele :) ta, a bluescreena będziesz resetować schodząc do piwnicy ;) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość 3844A704 Opublikowano 6 Maja 2010 Zgłoś Opublikowano 6 Maja 2010 Wszystko jest do zrobienia na odległość. :D Ale panelami słonecznymi raczej słabo byłoby takiego potwora zasilać ;) Biorąc pod uwagę, że zestaw tylko nadający się do podgrzania przez cały dzień ciepłej wody na wieczór koszuje ok 10000zł i zawiera zaledwie 2 panele to tym na pewno byś kompa nie zasilił xD EOT :D Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość chronicsmoke Opublikowano 6 Maja 2010 Zgłoś Opublikowano 6 Maja 2010 Tak z czystej ciekawości chciałbym zobaczyć jakieś testy 470/480 z SLI w GTA IV. Testów na portalu znaleźć nie mogę, może na jakichś forach ktoś się "chwalił" wynikami? Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
TomaszPaweł Opublikowano 6 Maja 2010 Zgłoś Opublikowano 6 Maja 2010 INFO o GTA4 Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Maciem Opublikowano 6 Maja 2010 Zgłoś Opublikowano 6 Maja 2010 (edytowane) z gniazdka ale to cały zestaw i obciążone 2 karty graficzne, physx też ładnie podgrzewa 8800gt Czyli wez pod uwage sprawnosc zasilacza z 85% , czyli sam komp pobieral by ok. 365w ;) Ps. sam bym wybrał GF powód Bo OC lepsze krótko i na temat Pobór prądu? Jesli cie nie stac dopłacic pare groszy wiecej do rachunku to nie pisz w tym temacie bo to zenada jest... Lepsze OC ma GF :blink: A pobor pradu wiaze sie takze z posiadaniem mocniejszego zasilacza :rolleyes: Ale tak było zawsze z tymi kartami za 2000zł. GF 6800Ultra po premierze, kosztował chyba z 1800zł jak dobrze pamiętam i jak byście poczytali teraz komentarze pod testami, to też tam ludzie będą narzekać jak to się grzało i jaki zasilacz będzie trzeba kupować. Dopiero 7300, 7600 były "normalne" pod względem poboru prądu i wydzielania ciepła. 8800GTX po premierze, kosztował 2400zł i byli tacy co go wtedy kupowali. I tutaj, też przecież tak było że to była grzałka. Poprawcie jak żle to pamiętam. Tylko że za tym wszystkim stała wydajność która niszczyła poprzednią generację kart. Więc jak dla mnie Fermi jest właśnie takim samym potworem na swoje czasy jak były wcześniejsze topowe karty. Tylko że teraz zmieniło się to że jest mocna konkurencja od ATI. Bo dawniej Ati wyprzedzało NV chyba tylko w czasach 9700pro , 9800pro które to karty zostały zmiecione przez 6600 i 6800. Dla mnie Fermi powinien wyjść w mniejszym procesie produkcyjnym, i wtedy było by wszystko OK. Ludzie by się zachwycali tymi kartami a NV zbijała kasę. Ale i tak twierdzę że jak by takia 480 kosztowała 1300zł a 470 za 900zł to bym pewnie kupił tą kartę. Tylko wez pod uwage ze jak wychodzil np. 8800 to on nie mial zadnej konkurencji i mogl sobie kosztowac te 2k pln , a takze zwroc uwage na cene jaka miala HD5870 podczas a jaka ma teraz ? Prawie sie nie zmienila. A co do poboru pradu i halasu to taki 8800 i tak go pobieral sporo mniej niz fermi. Nawet taki HD2900XT uwazany za bardzo glosnego , bardzo goracego , bardzo prodo zernego jest cichszy , pobiera mniej pradu i jest cichszy od fermiego. Gdyby fermi mial cene bliska HD5870 to by znalazl znacznie wiecej chetnych i moze nie bylo by az tyle negatywnych komentarzy na jego temat. Edytowane 6 Maja 2010 przez Maciem Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
radiergummi Opublikowano 6 Maja 2010 Zgłoś Opublikowano 6 Maja 2010 (edytowane) Non-reference and factory overclocked: First Looks at the GALAXY GeForce GTX 470 by VR-Zone.com | COMPUTEX 2010 //edt ale szpetna ta karta :blink: Edytowane 6 Maja 2010 przez radiergummi Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Maciem Opublikowano 6 Maja 2010 Zgłoś Opublikowano 6 Maja 2010 wcale nie taka szpetne ;) ale wyglada troche "inaczej" :lol2: Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
leven Opublikowano 6 Maja 2010 Zgłoś Opublikowano 6 Maja 2010 Nvidia nie potrafi robic chlodzen... To najbrzydsza karta jaka kiedykolwiek widzialem :ph34r: Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Maciem Opublikowano 6 Maja 2010 Zgłoś Opublikowano 6 Maja 2010 ta galaxy ? czy referent ? Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
panzar Opublikowano 6 Maja 2010 Zgłoś Opublikowano 6 Maja 2010 (edytowane) znaczy się która? bo ta po lewej to jest referent. ta po prawej to jest konstrukcja galaxy (co zresztą ewidentnie widać). galaxy wygląda świetnie! no to już rozumiem ;) referenty nvidi... te nie wycentrowane otwory wentylatorów wyglądają obrzydliwie... Edytowane 6 Maja 2010 przez bzzzzzz Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Maciem Opublikowano 6 Maja 2010 Zgłoś Opublikowano 6 Maja 2010 moze sie zle sprecyzowalem . Pytanie mialo byc ktora karta jest najbrzydsza jaka kiedykolwiek widzial ? Moze byc ta galaxy , wyglada troche ja cos... ;D Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Lysyn Opublikowano 6 Maja 2010 Zgłoś Opublikowano 6 Maja 2010 Mam juz Gtx-a 480 MSI. Karta jest cicha w idle, temp do 50 stopni. W Vantage temp max ok 90 stopni. PO podkreceniu ok 93 stopnie. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
leven Opublikowano 6 Maja 2010 Zgłoś Opublikowano 6 Maja 2010 moze sie zle sprecyzowalem . Pytanie mialo byc ktora karta jest najbrzydsza jaka kiedykolwiek widzial ? Moze byc ta galaxy , wyglada troche ja cos... ;D Mialem na mysli tego gniota od galaxy.... Przecierz jest tyle ciekawych i ladnych konstrukcji chlodzen naprzyklad na ati. Nie mogli sie odwzorowac ? Taki kloc... fuj. Wstyd dla milosnikow nvidi :( Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Maciem Opublikowano 6 Maja 2010 Zgłoś Opublikowano 6 Maja 2010 a jak glosnosc w stresie ? tak jak w reckach pisza ... tragedia ? Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
leven Opublikowano 6 Maja 2010 Zgłoś Opublikowano 6 Maja 2010 (edytowane) Mam juz Gtx-a 480 MSI. Karta jest cicha w idle, temp do 50 stopni. W Vantage temp max ok 90 stopni. PO podkreceniu ok 93 stopnie. Mozesz zobaczyc czy wyszedl nibitor obslogujacy ta karte ? Gratulacje fajnego zakupu :) EDIT: nibitor nie wyszedl..... jeszcze. EDIT: Widze, ze mnie nvidia uslyszala i cos robi w kierunku chlodzen kart: Juz lepiej nie ? Edytowane 6 Maja 2010 przez leven Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
runnerxx Opublikowano 7 Maja 2010 Zgłoś Opublikowano 7 Maja 2010 Na pclabie, ukazał się art z GTX-em 470: GeForce GTX 470 kontra Radeon HD 5850 :: PCLab.pl GTX470 jest szybszy o 2% od HD5850 i 15% wolniejszy od HD5870. Do tego ciekawy fragment o Metro: Na chwilę zatrzymamy się przy wynikach z gry Metro 2033 uruchomionej w trybie DirectX 11. Przyznajemy się bez bicia, że nie rozumiemy, co z nimi jest nie tak. Możliwe, że do metodyki ustalonej przed testami GeForce'a GTX 480 wkradł się jakiś błąd. Możliwe, że to kwestia sterowników (ale mało) albo czegoś jeszcze innego. Ale teraz nie wygląda to już tak nadzwyczajnie jak podczas testowania GTX-a 480. GTX 470 plasuje się pomiędzy dwoma Radeonami. Ponowiliśmy pomiary wydajności GTX-a 470 zaraz po zorientowaniu się, że coś jest nie tak, ale wynik ciągle był taki sam. Niestety, chwilowo nie mamy dostępu do GTX-a 480, więc nie możemy sprawdzić wyniku uzyskanego przez tę kartę. Poza tym kilku Czytelników prosiło nas o porównanie jakości obrazu generowanego przez Radeony i GeForce'y w tej grze. Postanowiliśmy to zrobić: Nie trzeba się specjalnie przyglądać, aby zauważyć, że w przypadku GeForce'a obraz jest bardziej rozmyty i mniej wyraźny. Nie wiemy, jaki to może mieć wpływ na wydajność, ale na razie wyniki z Metro 2033 należy czytać z przymrużeniem oka. 1 Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
toms83 Opublikowano 7 Maja 2010 Zgłoś Opublikowano 7 Maja 2010 I co po tych wymyślnych chłodzeniach, jak i tak tego nie widać. Co najwyżej kawałek boczku. :wink: Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
leven Opublikowano 7 Maja 2010 Zgłoś Opublikowano 7 Maja 2010 (edytowane) Nie rozumiem.... Przeca widac jak byk, ze chlodzenie jest wielkosci calej karty z 4 rurkami cieplnymi w obie strony. To taki troszke mniejszy gtx accelero extreme z 5 pipkami. Co najmniej 15 st C mniej niz referent. Jako posiadacz swietnej karty powinienes docenic takie chlodzenie no chyba, ze masz caly czas zalozonego referenta na gpu Edytowane 7 Maja 2010 przez leven Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Maciem Opublikowano 7 Maja 2010 Zgłoś Opublikowano 7 Maja 2010 Widze, ze mnie nvidia uslyszala i cos robi w kierunku chlodzen kart: Juz lepiej nie ? Nvidia na pewno Cie nie uslyszala bo to nie ona montuje nie referencyjne chlodzenia tylko jej dystrybutorzy ;] 1 Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
rafa Opublikowano 7 Maja 2010 Zgłoś Opublikowano 7 Maja 2010 (edytowane) Widze, ze mnie nvidia uslyszala i cos robi w kierunku chlodzen kart:nvidia to robi samo GPU...reszte robią poszczególni producenci kart Edytowane 7 Maja 2010 przez rafa Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
leven Opublikowano 7 Maja 2010 Zgłoś Opublikowano 7 Maja 2010 No juz dobrze.... zle to napisalem ;-) Chcialem tylko napomknac, ze cos sie zaczyna dziac w kwestii chlodzenia fermii. Wlasciwie zastanawialem sie ostatnio dla czego od razu nvidia jak i ati nie projektuja wlasnie takich chlodzen jak te nowe fermii beda miec od zotaca ? Gdyby tak bylo od razu, to nie byloby psioczenia na wysokie temp. i glosnosc fermii. Oczywiscie producenci chlodzen mieliby mniejsze zyski a producenci kart wieksze koszty produkcji, ale tu przecierz chodzi o komfort pracy. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
ptys Opublikowano 7 Maja 2010 Zgłoś Opublikowano 7 Maja 2010 No juz dobrze.... zle to napisalem ;-) Chcialem tylko napomknac, ze cos sie zaczyna dziac w kwestii chlodzenia fermii. Wlasciwie zastanawialem sie ostatnio dla czego od razu nvidia jak i ati nie projektuja wlasnie takich chlodzen jak te nowe fermii beda miec od zotaca ? Gdyby tak bylo od razu, to nie byloby psioczenia na wysokie temp. i glosnosc fermii. Oczywiscie producenci chlodzen mieliby mniejsze zyski a producenci kart wieksze koszty produkcji, ale tu przecierz chodzi o komfort pracy. nie projektują bo przy tych chłodzeniach całe ciepło zostaje w obudowie (co przy słabej wentylacji do niczego dobrego nie prowadzi), dlatego robią turbiny z wyrzutem powietrza na zewnątrz, jak dla mnie to mogli by zrobić turbiny 3-4 slotowe większy radiator by się zmieścił, obroty poszły by w dół a i całe gorące powietrze wylatywało by na zewnątrz Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
chemiczny_ali Opublikowano 7 Maja 2010 Zgłoś Opublikowano 7 Maja 2010 (...)Poza tym kilku Czytelników prosiło nas o porównanie jakości obrazu generowanego przez Radeony i GeForce'y w tej grze. Postanowiliśmy to zrobić: Nie trzeba się specjalnie przyglądać, aby zauważyć, że w przypadku GeForce'a obraz jest bardziej rozmyty i mniej wyraźny. Nie wiemy, jaki to może mieć wpływ na wydajność, ale na razie wyniki z Metro 2033 należy czytać z przymrużeniem oka. [/i] Litości! Forum ma trzymać poziom i kolejne bzdury by pclol nam nie potrzebne. Sprawa Metro była poruszana jakiś czas temu, ale lole się obudzili i teraz ktoś nagle wpadł na (wydawać by się mogło) "sensowny" art i masz. Dalej tłuką to samo :wink: Tutaj link do czegoś poważniejszego Metro 2033 Image Quality Followup - Metro 2033 Image Quality Followup | [H]ard|OCP Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Raptor Opublikowano 7 Maja 2010 Zgłoś Opublikowano 7 Maja 2010 (edytowane) Zacytuję ekipę AnandTech która bezpośrednio konsultowała się z nVidią w sprawie DP: " After hearing word after the launch that NVIDIA has artificially capped the GTX 400 series' double precision (FP64) performance, we asked NVIDIA for confirmation. NVIDIA has confirmed it - the GTX 400 series' FP64 performance is capped at 1/8th (12.5%) of its FP32 performance, as opposed to what the hardware natively can do of 1/2 (50%) FP32. This is a market segmentation choice - Tesla of course will not be handicapped in this manner." coś mi w tych wynikach nie pasuje - skoro GF100 teoretycznie w DP (FP64) ma mieć 50% wydajności SP (FP32) a realnie ma być obcięte do 12.5% to wg pomiarów z Sisoft teoretycznie DP powinno mieć 770 (troche mniej od 5970 a realnie powinno być 192,5 - wg wyniku z sisoft wydajność DP jest ok. 5.5% w stosunku do SP Edytowane 7 Maja 2010 przez Raptor Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Michaelius Opublikowano 7 Maja 2010 Zgłoś Opublikowano 7 Maja 2010 Inno 3D GeForce GTX 470 Hawk - Prawdziwy Odlot | PurePC.pl No i w końcu Fermi z chłodzeniem zapewniając porządne temperatury i ciszę. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
chemiczny_ali Opublikowano 7 Maja 2010 Zgłoś Opublikowano 7 Maja 2010 coś mi w tych wynikach nie pasuje - skoro GF100 teoretycznie w DP (FP64) ma mieć 50% wydajności SP (FP32) a realnie ma być obcięte do 12.5% to wg pomiarów z Sisoft teoretycznie DP powinno mieć 770 (troche mniej od 5970 a realnie powinno być 192,5 - wg wyniku z sisoft wydajność DP jest ok. 5.5% w stosunku do SP Imo wyniki w normie. Wynik DP powinien być 50% wydajności SP czyli 50% z 1540 jest 770. Jeżeli to 770 ograniczymy do 12,5% to mamy: 770 - 100% wydajności DP, a 12,5% z tego wyniku będzie 96. W teście uzyskali 85 czyli jakieś 11%. Imho wszystko się zgadza :wink: pzdr Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Raptor Opublikowano 7 Maja 2010 Zgłoś Opublikowano 7 Maja 2010 (edytowane) no tak ale nv mówiła że wyniki w DP będą na poziomie 1/8 SP a nie 1/8 DP the GTX 400 series' FP64 performance is capped at 1/8th (12.5%) of its FP32 performance czyli powinno być napisane FP64 = 1/16 FP32 Edytowane 7 Maja 2010 przez Raptor Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...