Skocz do zawartości
cavarr

Geforce GTX 260/280

Rekomendowane odpowiedzi

Powiedźcie mi na ile jest realne to, że GTX2860/280 będzie krokiem w którym GPU prawie całkowicie zastąpi CPU? Tak czytam i czytam aż nie dowierzam, że te CUDA to CUDA niewidy ;)

Nie jest realne. GPU to z punktu widzenia CPU dość prymitywne urządzenie. To takie mocno wykastrowane jednostki SIMD z CPU tyle, że zwielokrotnione. Właściwie GPU nie może się obyć bez CPU, a wszystkie programy wykorzystujące CUDA (te działające ;) ) są pod CPU, a GPU jest wykorzystywany jako koprocesor strumieniowy. Reszta to marketingowy bełkot.

Najbardziej realne (a właściwie pewne) jest to, że jednostki wektorowe trafią do CPU, tak jak wcześniej FPU, tylko w tym wypadku (przynajmniej na początku) jako osobny(e) rdzeń(nie) w procesorach z rdzeniami heterogenicznymi.

Edytowane przez anemus

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Te cuda to sobie można w dupe wsadzić , już to słysze od czasu G80 i h... wielki z tego. Nie ma jak marketing i wciskanie głupot - World of Conflict i cuda za czasów G80 , co jest oczywistą nieprawdą. Tymi cudami Nvidia mąci w głowach , bo jest walczy na noże z Intelem , muszą ich troche ich potraszyć. W sumie możemy spodziewać się aplikacji przez które będzie można kodować filmy i muzyke za pomocą gpu , oczywiście znacznie szybciej niż przy użyciu cpu.

Edytowane przez sideband

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Imo , za wszystkim stoi kasa,ewentualnie dobry "lobbing".

 

Jesli twórcy danej nowinki,będą w stanie przekonać producentów gier/oprogramowania,(kasą lub miłym słowem),to może być sukces.

Inaczej będzie tak jak z innymi pomysłami.

No ale tu bardziej kwestia balansu, ile kasy trzeba wyłożyć, a ile wróci, ze zwiększonego zainteresowania produktem.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dzięki za wytłumaczenie sytuacji bo trcohę sie pogubiłem z tymi CUDAMI ;) Ale to nie będzie tak, że jak programiści na prawdę się zmuszą do CUDA to wtedy procek będzie po to aby "trzymał" system? A GPU przejmie większość mocy obliczeniowej?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dzięki za wytłumaczenie sytuacji bo trcohę sie pogubiłem z tymi CUDAMI ;) Ale to nie będzie tak, że jak programiści na prawdę się zmuszą do CUDA to wtedy procek będzie po to aby "trzymał" system? A GPU przejmie większość mocy obliczeniowej?

Nie do końca. GPU świetnie wykonuje operacje mnożenia czy sumowania itp. (różne sprzętowo realizowane operacje macierzowe) na dużej ilości danych równocześnie ale zupełnie nie radzi sobie z zarządzaniem wątkami, rozgałęzieniami, alternatywami i innymi zadaniami. Nie nadaje się do zarządzania swoimi własnymi obliczeniami i nie bardzo wychodzą mu obliczenia na danych nie macierzowych (wszystkie jednostki pracują jak jedna często wykonując setki i więcej razy pewne operacje by uzyskać właściwy wynik podczas gdy CPU robi to w jednym takcie). GPU da się świetnie wykorzystać jako pomoc dla CPU i co ciekawe wydajność "procesora" graficznego z CPU. Mniej więcej optimum jest takie, że program wykonuje CPU ale jak potrzebuje wykonać operacje SIMD to odwołuje się do GPU z żądaniem np. pomnożenia macierzy przez inną macierz, odwrócenia jej itp. przygotowując mu porcje danych i zajmując się całym algorytmem postępowania. W takich zastosowaniach seria GTX2xx jest naprawdę dużym postępem w stosunku do rodziny 8xxx. Przynajmniej wg notek prasowych wykonuje już obliczenia w podwójnej precyzji co nie jest istotne w gierkach (na razie) ale w obliczeniach naukowych już tak. Do tej pory np GF8800GT mimo, ze na papierze miał 500GFlops to w FP64 często wydajność spadała czterokrotnie co już nie było jakąś rewelacją do Quada 3GHz. Teraz podobno mamy 1Tflops w FP64

@sideband I nawet w tych zastosowaniach bez "wsparcia" CPU jest problem. Nowoczesne algorytmy kodowania dynamicznie zarządzają kompresją w zależności od charakterystyki danej części danych (np części obrazu klatki). Często się zdarza, że GPU wykonuje kodowanie szybciej ale po obróbce przez CPU jakość obrazu jest o wiele lepsza (czasem efekt zastosowania GPU przy dużej kompresji jest tragiczny). Znowu najlepsze efekty daje współpraca ;)

Edytowane przez anemus

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

może nie takie znowu cuda.. DX10 też takie cudowne miało być.. dawać wolność programistom.. umożliwiać lepsze efekty.. a prawda jest taka, że po 2 latach mamy kilka gier z jego obsługą, z czego taki Crysis był zrobiony chyba po to żeby zajechać każdą kartę graficzną która wyjdzie i napędzać tym rynek. Prawdę mówiąc jedynymi którzy dobrze się spisywali w świecie IT byli.. spece od marketingu producentów sprzętu i oprogramowania.

 

Może to dobrze że NVidia nie daje jakiejś mega wydajności, a wsadza różne bajery. Programiści może zaczną się uczyć jak ich używać jednocześnie optymalizując kod, a tymczasem spece od GPU popracują nad rozwojem owych bajerów już dla zwiększenia wydajności..

Edytowane przez ainaruth

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@anemus

 

To co piszesz to chyba dotyczy G80 i wydajność spadała nawet trzy razy przy fp64 , bo wszędzie są porównania do G80 także w przypadku porównania do G92 nic takiego może nie mieć miejsca.

Edytowane przez sideband

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@anemus

 

To co piszesz to chyba dotyczy G80 i wydajność spadała nawet trzy razy przy fp64 , bo wszędzie są porównania do G80 także w przypadku porównania do G92 nic takiego może nie mieć miejsca.

G80 i G92 nie różnią się architekturą procesorów strumieniowych i natywnie obliczenia prowadzą z pojedynczą precyzją. Dopiero GTX2xx (nie pamiętam kodowej nazwy) podobno obliczenia wykonuje z podwójną precyzją (jeszcze się nie wgłębiałem się w temat - na razie dorwałem notkę w testach).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeszcze raz dzięki za wytłumaczenie :)

 

A co do cen gdzie jest najdrożej (Komputronik) nie jest aż tak tragicznie:

http://www.komputronik.pl/Karty_graficzne/...alog,kat,12220/

http://www.komputronik.pl/Karty_graficzne/...alog,kat,12225/

 

Przy czym GTX260 od Evga już zdążył zanotować...spadek :P

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

a ja w sumie nie wiem ocb - gram w 1920x1200 4x, no i jeden 88gtx zdecydowanie srednio sobie radzi - np. mass effect okolice 20fps, zadna przyjemnosc. w innych tytulach, ktore mnie intersuja tez widze, ze 280 daje ladnie popalic 88gtx - WiC, CoH, prawie 2x wiekszy framerate. Crysis to inna bajka, ale tutaj tez dostajemy 2x wiecej, tyle, ze to jest nadal malo, ale od czego jest SLI ;) dostaje nowy (poprawiony) uklad z wydajnym ROP, FP64(cuda), PhysX, 1GB i w wymagajacych tytulach praktycznie 2x szybszy, no czego chciec wiecej ;)

A zmienisz swoje SLI na to SLI.bo ja swojego z 8800GT nie.Cena zabija.lepiej kupić 2x8800GT cena 260$ niż to coś za 640$ no chyba że chcesz robić SLI to wydatek ponad 1200$ :mur: :mur: papiera .Trzeba mieś nie równo pod sufitem żeby z nich teraz SLI robić. Edytowane przez Maxforce

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Śmieszy mnie argument cenowy... Pamietam jak ludzie kupowali 8800gt za 1200+, ja kupilem 3 miechy pozniej za 600, 2 miesiace dalej sa juz za 400. Dajcie rynkowi troche czasu ludzie, wyjdzie ATI, wyjdzie 260 i bedzie spoko

Cofnij się jak było,braki G92 wyższa cena,dostępność poleciała na 600,nowa generacja kart jest 400.Tu tego nie zobaczysz 260 jest dostępne od reki za 499$ tak samo jak 280 tylko czeka na kupowanie jak narazie wysyp zamówień na 280 nie ma.ATI raczej nic tu nie pomoże po wstępnych testach na xtremesystems żeby na 4850 w ustawieniach High pod XP było tak samo wydajnie jak na 8800GT.Jedyny ratunek dla nas i lepszego wyglądu tych kart to mniejszy proces produkcji i mniejsze ceny.

Po następnych testach w crysis to na 99% AMD nie da rady żeby cenowo NV zeszła

Rewelacja tyle to 8800GT wyciąga przypatrzcie się jeszcze na min FPS,tu też rewelacji nie będzie.

4850=AVG=30.19 Min=14.44

8800GT=AVG=30.44 Min=21.73

Dla zobrazowania

Dołączona grafika

Edytowane przez Maxforce

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

HEHE i co panie i panowie sądzę na temat premiery - papierowy tygrys. Ale piękne czasy nastały. Karty High End chodzą po 500żł a kolejna seria mimo niewiele lepszej wydajności po 2000zł. Mam 8800GT i wszystkie nowe gry śmigają. Także życzę kolejnych takich premier tak Ati jak i Nvidii bo zyskamy na tym tylko my konsumenci "z głową". Nie macie wrażenia że rynek PC stanął. Ja pamiętam jak co roku musiałem się zastanawiać co wybebeszyć z pieca aby fps'y poszły w górę a teraz śpię spokojnie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Coś w tym jest.

Ktoś kto kupił na jesieni 2006,E6600@3600,8800GTX.

Do dzisiaj w sumie może grać w gry, ze zbliżoną wydajnością, do ludzi kupujących dzisiaj sprzęt,E8xxx,8/9xxgt/gts/gtx.

Edytowane przez Ogi

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Moim zdaniem powinniśmy rozpatrywać sprawę w dwóch poziomach - wydajność i cena. Pod względem wydajności widać wyraźnie, że karta jest mocna i łoi ostro pojedyncze karty poprzedniej generacji. Nie rozumiem dlaczego wiele osób próbuje je zestawiać z parką 8800GT czy też kartami GX2. Jaki to ma sens? Jeśli porównujemy karty to chip w chip, a nie na zasadzie dwóch na jednego. Idąc tym tropem jedynym prawidłowym testem byłoby użycie karty z 2xG280 na pokładzie. A skoro takowej nie ma to sytuacja jest jasna. Nowy G280 jest wyraźnie szybszy niż poprzednicy.

 

Jeśli spojrzymy pod względem cenowym to dopiero w tym wypadku możemy mówić o zestawieniu go z kartami dwuchipowymi. Tu nie ma dwóch zdań, opłacalność zakupu jest problematyczna. Za tę cenę oczywistym jest zakup czegoś w SLI tudzież GX2.

 

Suma sumarum - nowa karta jest naprawdę niezła, choć boli troszkę, ze Crysis nie chodzi tak jak to w główkach sobie wymarzyli czytelnicy forum. A że kosztuje sporo? Trudno, takie prawa rynku. Kogo stać nie biadoli i kupi, kto nie ma na nią kasy będzie zrzędził, że kicha i totalny zawód. Taka już mentalność Polaków.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Moje przemyślenia odnośnie mocy GTX 280:

 

Na podstawie tabelki:

 

http://enthusiast.hardocp.com/article.html...W50aHVzaWFzdA==

 

i analizując wykres nr 2:

 

http://enthusiast.hardocp.com/article.html...W50aHVzaWFzdA==

 

można powiedzieć, że crysis słabo chodzi, ponieważ ma za małą moc shaderów.

 

240x1350MHz (GTX 280 wersja OC) kontra 128x1688MHz (9800GTX) to daje zaledwie 50% więcej mocy na papierze i 44% więcej średnich FPS w Crysis Very High DX10 1600x1200 anizo 16x.

 

Karta jest mocna tylko wtedy, kiedy kończy się przepustowość pamięci i jej ilość na kartach starszych generacji. Dlatego 9800GX2 w większości współczesnych tytułów jest szybszy (18,5% więcej mocy shaderów w porównaniu do GTX 280 wersji OC).

Podobnie 9800GTX SLI (33% więcej mocy shaderów w porównaniu do GTX 280 wersji OC) i 18,8% szybciej wg średnich FPS wg pierwszego wykresu.

 

Można nawet powiedzieć, że optymalizacja shaderów jest słaba w GTX 280 względem 9800GTX. Może nowe sterowniki nieco to poprawią, ale pewnie niewiele.

Edytowane przez Kikas

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

W zasadzie zgadzam się z przedmówcą Hanu. Kto ma kasę to kupi i nie będzie oglądał się na komentarze noobków. Jednak mimo wszystko trochę przesadzili z ceną. Ja mam rocznego GTSa i w zasadzie nie narzekam (na rozdziałce 1280x1024), a gdybym miał 8800 GT x2 to z pewnością by wystarczyło na dłużej. W jednym z testów widziałem, że GTX 280 w porównaniu do 9800 GTX w rozdziałkach do 1680x1050 nie miał dużej przewagi. Więc razem ze zmianą grafiki przyjdzie zmienić monitor :D

Edytowane przez Zieger69

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gość chronicsmoke

Nie widzę kompletnie sensu w nowych kartach NV wybaczcie jeśli to są prawdziwe wyniki to wole dokupić kolejnego 8800GT do SLI.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@Kikas test na Enthusiast robiony był na starszej wersji sterowników, gdzieś tutaj już był test na nowszych i poprawa jest znaczna :wink: Co do wyników to należy również wspomnieć jak testują panowie z [H] czyli szukają najlepszych grywalnych ustawień w danej grze, czyli karta X (GTX280) ma wszystko na maks i wysoką radziałkę, a karta Y (9800GTX) ma niską rozdziałkę i poucinane detale, ale wykresy są podobne, bo grywalność porównywalne tylko to co widzimy na ekranie już nie :) pzdr

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ok, ale wybrałem wykres na tych samych ustawieniach. Nawet na stronie, którą podałem jest info, że stery nie zmieniają wydajności. Więc podtrzymuję moje kalkulacje.

Edytowane przez Kikas

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

można powiedzieć, że crysis słabo chodzi, ponieważ ma za małą moc shaderów.

a ja sadze, ze mniejsza ilosc TMU (g200vgx2) daje o sobie znac. a to, ze crysis mocno z nich korzysta widac po spadku framerate przy zalaczonym aniso

 

Czyli to mam rozumieć, że fake? :? pzdr

tak Edytowane przez Sulaco

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Czyli to mam rozumieć, że fake? :? pzdr

Na to wygląda , jak będe miał w rękach 177.34 i 36 to 100% będzie można potwierdzić. Jedynie moge potwierdzić , że pod xp 177.34 i 36 nic nie wnoszą. Edytowane przez sideband

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Dodaj odpowiedź do tematu...

×   Wklejono zawartość z formatowaniem.   Przywróć formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

Ładowanie


×
×
  • Dodaj nową pozycję...