Skocz do zawartości
Gość delavego

Geforce GTX 470/480

Rekomendowane odpowiedzi

ale co ma bios do tego że karta sie gotuje, żre mase prądu a do tego ma kretyńskie zabezpieczenie prądowe?OC?pamięci chodza strasznie wolno i sie podkręcic nie chcą nawet......poracha na całej linii

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Przeczytaj dokladnie, chodzi o wysoka temperature w trybie 2D w momencie kiedy podpiete sa 2 monitory. GeForce od zawsze robia sie cieplejsze przy podpieciu dwoch monitorow, ale Fermi potrafia ponoc dochodzic do 90 stopni przy pracy biurowej i tu BIOS moze faktycznie pomoc. Problemu w 3D raczej nie rozwiaze.

Edytowane przez KrzychuG

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

ale co ma bios do tego że karta sie gotuje, żre mase prądu a do tego ma kretyńskie zabezpieczenie prądowe?OC?pamięci chodza strasznie wolno i sie podkręcic nie chcą nawet......poracha na całej linii

 

No jak to co - ty nie możesz w biosie swojej plyty zmieniać napięć, taktowań timingów etc? Wszystko ma przecież wpływ na temp i OC...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Imho układ wygląda na celowo pocięty. Ograniczone cuda cores, mała liczba tmu i wolne pamięci. Czy "oferma"? Jak pokazują testy nie taka oferma, oczywiście trochę ciepła, ale wydajność pomimo cięć wystarczyła do przejęcia pałeczki. Spokojnie, teraz mamy zapchaj dziurę w postaci 480'tki i już widać co można poprawić by wydajność wzrosła jak tylko tmsc okiełzna proces lub przejdzie oczko niżej :wink: pzdr

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Przejęcia pałeczki? Marketingowo może i tak, ale nie wydajnościowo. Biorąc pod uwagę CENĘ Oferma GTX 480 powinien stanąć do porównania z HD5970, a Oferma 470GTX z HD5870. W takich porównaniach Nvidia przegrywa wydajnościowo w większości testów, nie wspominając o absurdalnym poziomie hałasu i poboru energii kart ze stajni zielonych. Wypuszczenie po pół roku od konkurencji produktów gorszych i do tego droższych jest mega klapą. W każdej normalnej firmie po czymś takim prezes wyleciałby na zbity pysk.

 

Do tego nie zapominajmy, że karty w dalszym ciągu nie są dostępne.

  • Upvote 1
  • Downvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ciekawe czy to prawdziwa cena karty ?

 

korona czeska jest po 0,15 groszy

11 238 x 0,15 = 1685 zł

 

POINT OF VIEW VGA nVidia GeForce GTX 480, 1536MB DDR5/384-bit,2xDVI,1xminiHDMI | PočítačeOnline.cz | notebooky periferie příslušenství IT elektronika | splátky

Edytowane przez DUSZEK2323

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Widzę że Fermi dostało nową nazwę - "oferma" hahahaha :) ;]

Jak dla mnie to nVidia trochę dała ciała - zbyt późne wypuszczenie architektury/zbyt wysoki pobór energii/niewystarczająca wydajność w stosunku do konkurencji, jedyne w czym upatrywałbym jakiś + na przyszłość, to potencjalne wykorzystanie teselacji (tu może pomóc nV program "The Way It's Meant to be Played") - jeżeli będą potrafili wymusić niejako na developerach wsparcie programowe dla swojego cuda, to nie będzie źle, przejście do niższego procesu też może pomóc.Na dzień dzisiejszy jednak raczej bym się nie skusił na ten produkt, nie tędy droga panowie z nV ;]

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Przejęcia pałeczki? Marketingowo może i tak, ale nie wydajnościowo. Biorąc pod uwagę CENĘ Oferma GTX 480 powinien stanąć do porównania z HD5970, a Oferma 470GTX z HD5870. W takich porównaniach Nvidia przegrywa wydajnościowo w większości testów, nie wspominając o absurdalnym poziomie hałasu i poboru energii kart ze stajni zielonych. Wypuszczenie po pół roku od konkurencji produktów gorszych i do tego droższych jest mega klapą. W każdej normalnej firmie po czymś takim prezes wyleciałby na zbity pysk.

 

Do tego nie zapominajmy, że karty w dalszym ciągu nie są dostępne.

 

Bzdura! 480'tka jest najwydajniejszą jednordzeniową konstrukcją i kropka.

 

To, że masz jakieś przemyślenia co do ceny i do czego "powinien" (LOL) być porównywany to schowaj dla siebie. Co do dostępności to zgadzam się jak na razie produkt czysto wirtualny, ale nie zmienia to postaci rzeczy.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Bzdura! 480'tka jest najwydajniejszą jednordzeniową konstrukcją i kropka.

 

Tak jest najwydajniejszą single-core GPU na rynku, ale jakim kosztem ?

Wydajność w stosunku do ATi 5870 ok. 7-15 % wyższa (w zależności od gry/systemu etc. - czasami niższa/równa zależnie od tytułu), ale pobór prądu ? W porównaniu do ATi 5870 wyższa o ok. 40W w idle & ok. 100-110W w stress, to jest gruba przesada - nawet od ATi 5970 jest bardziej prądożerna/wydziela więcej ciepła (wydajnościowo jest słabsza).Dla mnie produkt niedopracowany (wydany ewidentnie w pośpiechu).Sam pomysł nowej generacji GPU (architektura) jest dobry, ale wykonanie pozostawia już wieeele do życzenia, naprawdę.

 

Dziękuję to wszystko :D

 

Nie ma za co, spójrz na koszt ;) ;] - poza tym, wolny rynek zadecyduje o powodzeniu nowego dziecka nVidii, a tu już może nie wystarczyć tylko i wyłącznie "Top Speed" ;)

Edytowane przez potfur

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@potfur

Zapominasz o jednej kwestii. Ten segment rynku jest specyficzny i chodzi tylko o to, żeby dana firma ( czy to Nvidia czy Ati ) miała najwydajniejszą kartę na rynku. Dla nich nie jest ważne, jakim kosztem, ważne że jest najszybsza, a GTX 480 jest najszybszy. To jest jedna kwestia. Druga, to opłacalność takiego produktu, na który patrzymy my, użytkownicy i potencjalni klienci. Wtedy bierzemy te ww rzeczy i porównujemy i w tej kwestii wychodzi, że jest to produkt bardzo nieopłacalny. ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@potfur

Zapominasz o jednej kwestii. Ten segment rynku jest specyficzny i chodzi tylko o to, żeby dana firma ( czy to Nvidia czy Ati ) miała najwydajniejszą kartę na rynku. Dla nich nie jest ważne, jakim kosztem, ważne że jest najszybsza, a GTX 480 jest najszybszy. To jest jedna kwestia. Druga, to opłacalność takiego produktu, na który patrzymy my, użytkownicy i potencjalni klienci. Wtedy bierzemy te ww rzeczy i porównujemy i w tej kwestii wychodzi, że jest to produkt bardzo nieopłacalny. ;)

 

ATi 5970 - dziękuję za uwagę ;) :)

ps. i nie jest ważne czy ma 1,2,3, czy nawet 4 core - najwydajniejsze na rynku (nadal) jest 5970 (jak dotychczas).I w tym momencie cała strategia wydajności nVidii przysłowiowy "szlag trafia" (oczywiście do czasu aż wypuszczą multi-core GPU ;) ).Tylko pytanie jest kiedy i czy w ogóle ;] (poza tym ATi też nie będzie spało, przynajmniej na to liczę :) ).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

łatwiej ATI będzie dorzucić tesselatory niż NVIDII: obniżyć pobór prądu, obniżyć koszty produkcji, zwiększyć uzysk, naprawić BUG związany z obsługą dwóch ekranów (pobór prądu w idle), wyciszyć, itp.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

ATi 5970 - dziękuję za uwagę ;) :)

ps. i nie jest ważne czy ma 1,2,3, czy nawet 4 core - najwydajniejsze na rynku (nadal) jest 5970 (jak dotychczas).I w tym momencie cała strategia wydajności nVidii przysłowiowy "szlag trafia" (oczywiście do czasu aż wypuszczą multi-core GPU ;) ).Tylko pytanie jest kiedy i czy w ogóle ;] (poza tym ATi też nie będzie spało, przynajmniej na to liczę :) ).

 

Kolejna bzdura! Od dawien dawna dzielimy rynek na układy jednordzeniowe i dwurdzeniowe, dlatego, że dwa rdzenie mają swoje niedogodności (nie zawsze się dobrze skalują i są jak to tam... mikroprzycięcia). Tak więc jak ktoś chce najwydajniejszy jednordzeniowy układ to odpowiedź jest prosta. Jak ktoś z kolei chce najwydajniejszą kartę na rynku to również odpowiedź jest prosta. Jak komuś zależy na wydajności i liczy złotówki to również znajdzie coś dla siebie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Kolejna bzdura! Od dawien dawna dzielimy rynek na układy jednordzeniowe i dwurdzeniowe, dlatego, że dwa rdzenie mają swoje niedogodności (nie zawsze się dobrze skalują i są jak to tam... mikroprzycięcia). Tak więc jak ktoś chce najwydajniejszy jednordzeniowy układ to odpowiedź jest prosta. Jak ktoś z kolei chce najwydajniejszą kartę na rynku to również odpowiedź jest prosta. Jak komuś zależy na wydajności i liczy złotówki to również znajdzie coś dla siebie.

 

Nie no ~chemiczny, litości :)

 

Powtórzę: najwydajniejszą karta graficzną na rynku w ogóle jest ATi 5970 - jednordzeniową - GTX 480 nVidii.No i tyle :)

ps. odniosłem się do posta ~toms83 który pisał o "najwydajniejszej karcie na rynku" (bez rozbijania czy w klasie kart single-core czy też multi-core).

I Ty ~chemiczny dobrze sobie zdajesz z tego sprawę :) ;]

 

Zła wiadomość (dla obozu nVidia):

 

Jeden z największych partnerów (dotychczas) nVidii - amerykańska korporacja XFX rezygnuje z produkcji układów FERMI (zarówno GTX 470 jak i 480) (sic!)

 

"Firma XFX zrezygnowała ze sprzedaży kart graficznych GeForce GTX 480 i GeForce GTX 470, bazujących na 40nm układach o nazwie kodowej Fermi. Oficjalnie powody podjęcia takiej decyzji nie zostały podane. Sytuacja jest dość zaskakująca, gdyż jeszcze kilka dni przed premierą w sieci pojawiły się zdjęcia, przedstawiające opakowania oraz same karty GeForce GTX 480 i 470 autorstwa XFX. Według niepotwierdzonych informacji powodem rezygnacji z wprowadzenia ich do sprzedaży mogła być obawa o awaryjność spowodowana bardzo wysoką temperaturą pracy, zwłaszcza, że na flagowe modele kart firma udzielała zazwyczaj wieczystej gwarancji. Równocześnie XFX podtrzymuje zainteresowanie kolejnymi kartami Nvidii z architekturą Fermi, należącymi do średniej i niższej półki cenowej, które trafią do sklepów za kilka miesięcy.

 

Warto dodać, że jeszcze kilkanaście miesięcy temu firma XFX produkowała karty graficzne wyłącznie w oparciu o układy Nvidia GeForce - pierwsze karty XFX bazujące na układach ATI Radeon trafiły do sklepów w styczniu ubiegłego roku. "

 

Wygląda na to że nVidiia będzie miała trochę zgryz (XFX tj. mniej więcej taki partner jak Sapphire w stosunku do ATi - jeden z największych w branży).

Edytowane przez potfur

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

ATi 5970 - dziękuję za uwagę ;) :)

ps. i nie jest ważne czy ma 1,2,3, czy nawet 4 core - najwydajniejsze na rynku (nadal) jest 5970 (jak dotychczas).I w tym momencie cała strategia wydajności nVidii przysłowiowy "szlag trafia" (oczywiście do czasu aż wypuszczą multi-core GPU ;) ).Tylko pytanie jest kiedy i czy w ogóle ;] (poza tym ATi też nie będzie spało, przynajmniej na to liczę :) ).

 

I tutaj bym polemizowal - bo o ile radek jest wydajniejszy w DX 10 to juz w DX 11 nie tak bardzo ;)

Nvidia jak widac postawila na przyszlosc i wsparcie dla DX 11 - IMO dobry tok myslenia, bo coraz wiecej gier bedzie pisanch wlasnie pod tego DX.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

zebys sie za jakis czas nie zdziwil... konsole sprawiaja ze bajery typu dx10/11, lepsza grafika oraz optymalizacja pod pc kuleje. Tak wiec watpie aby zaraz byl wysyp gier z dx11, no chyba ze nvidia albo ati bedzie sypac do kieszeni programistow 'drobne'

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

~Blackwhite

Nvidia jak widac postawila na przyszlosc i wsparcie dla DX 11 - IMO dobry tok myslenia, bo coraz wiecej gier bedzie pisanch wlasnie pod tego DX.

Wiesz, to jest argument obosieczny, nie przesądza wcale na korzyść nVidii (lub też na niekorzyść) - mogę odpowiedzieć w duchu takim, iż ATi może wykorzystać doświadczenie konkurenta (w zakresie implementacji standardu DX11) i wypuścić (na podstawie doświadczeń, negatywnych tudzież pozytywnych konkurenta) produkt defaultowo na wyższym poziomie w czasie :) (np. karty z serii ATi 6xxx).Ale to są akademickie dysputy, na dzień dzisiejszy nie nosi to za sobą żadnych pozytywnych lub negatywnych konsekwencji :) (zanim DX11 "okrzepnie" na rynku, to ohohooooooo) wyjdzie jeszcze parę technologicznie wydajniejszych konstrukcji ATi (jak i również nVidii).Także wiesz, pływający argument w sumie ;] ;)

ps. jaka będzie przyszłość (w roli standaryzacji DX 11) to jeszcze za wcześnie pisać, to pokaże czas.Przypomnijmy sobie tylko ile % gier jest pisanych, ale co najważniejsze odpalanych przez użytkowników w std. DX 10/10.1 - to nie jest takie jednoznaczne (i o niczym tak naprawdę nie przesądza).Wystarczy spojrzeć chociażby na rynek OSów (% posiadania rynku) żeby nie być zbytnim optymistą w tym zakresie ;]

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

I tutaj bym polemizowal - bo o ile radek jest wydajniejszy w DX 10 to juz w DX 11 nie tak bardzo ;)

Nvidia jak widac postawila na przyszlosc i wsparcie dla DX 11 - IMO dobry tok myslenia, bo coraz wiecej gier bedzie pisanch wlasnie pod tego DX.

 

 

Ta jasne, tak samo jak masz wysyp gier DX10. Pic na wodę fotomontarz.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

GeForce GTX480 SLI (sic!) nawiązuje walkę z ATi 5970.

To już nie jest śmieszne, na cztery tytuły testowe (Metro 2033/dx 11 ; Alien vs Predator/dx 11 ; Battlefield:Bad Company 2/dx 11 & Dirt 2/dx 11) jest remis - 2:2

 

Zestaw testowy.

 

Dołączona grafika

 

 

B:bc 2

 

Dołączona grafika

 

 

Dirt 2

 

Dołączona grafika

 

 

Metro 2033

 

Dołączona grafika

 

 

AvP

 

Dołączona grafika

 

 

Nie widzę tej miażdżącej przewagi nad ATi (przynajmniej na dzień dzisiejszy).I nie wróżę nVidii skoku na rynek (nie z takim produktem jaki ma dziś).

 

ps. jestem ciekaw jak się sprawuje nowe dziecko nVidii w Supreme Commanderze 2 np. (swoją drogą, ciekawe dlaczego żaden z portali testujących nie korzysta z tej gry jako benchmark ? - bdb. wykorzystuje multi-core CPU i dobrze współpracuje też z multi-GPU).

Edytowane przez potfur

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Stawiam na stery - ja mam nadzieję że nVidia wypuści coś rozsądnego w segmentach mid-range & low-end, bo na dzień dzisiejszy wygląda to wszystko niezbyt ciekawie (w porównaniu do oferty jaką ma ATi).W końcu sprzedaż z segmentu kart high-end to jest niewielki % całego tortu do podziału.Ciekawe czy powstanie dual-GPU na chipie GTX 480 ;)

Edytowane przez potfur

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Heh, bo złe konfigi testowali. Trzeba przetestować kofiguracje 3way-SLI trzech GTX 480 zwodowanych, wtedy wygrają. Oczywiście nie wolno nic mówić o kosztach, które w takim wypadku wyniosą 3 x 2500 zł versus 1 x 2200 zł.

Ludzie - przejrzyjcie na oczy. Sam mam GTX 260 i jestem z niego bardzo zadowolony. Poprzednio miałem 8800 GTS i też było dobrze. Ale to co wypuściła Nvidia to pomyłka i żaden adwokat za żadne pieniądze nie będzie w stanie dowieść, że jest inaczej.

  • Upvote 1
  • Downvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@chemiczny_ali

 

buahahaha :lol2: :lol2: :lol2: może na pclabie takie teksty odnoszą jakiś skutek, ale nie na tym forum .... chłopie zastanów się trochę. Bo czuć smród straszny. Dołącz do sulaco w swojej ślepej wojnie jaką przeprowadza na pclabie. Tam macie większą silę przebicia. Nie oszukujmy się obecna seria jest do niczego. <span style='color: red;'>[ciach!]</span> wydajność wyższa o te 10% nawet niech będzie 20%. W tej cenie w szranki wchodzi dwu jajowiec od AMD. I każdy wie co jest wydajniejsze i CICHSZE. Najważniejszym kryterium wg. mnie w tym wypadku jest kultura pracy danego układu. W tym wypadku nV <span style='color: red;'>[ciach!]</span> się z brudnymi butami do solanu i nie raczy nawet przeprosić za swoje nietaktowne zachowanie. W każdej recenzji powinno być wyryte czcionką 50, że karta nie nadaje się do normalnego użytkowania.

 

Dla przypomnienia

 

 

http://www.youtube.com/watch#!v=71zQx5pR9-M

Edytowane przez nierealny
  • Upvote 1
  • Downvote 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A sam pomysł (z poprzedniego mojego postu - prototyp GTX 960 z wtyczką jak do pg. ATX 24 pin.) jest po prostu poroniony, a na pewno skrajnie irracjonalny.

 

FACEPALM.... a wiesz w jakim dniu pojawiły się newsy o 'GTX960'?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Dodaj odpowiedź do tematu...

×   Wklejono zawartość z formatowaniem.   Przywróć formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

Ładowanie


×
×
  • Dodaj nową pozycję...