Radzyn Opublikowano 16 Czerwca 2008 Zgłoś Opublikowano 16 Czerwca 2008 Powiedźcie mi na ile jest realne to, że GTX2860/280 będzie krokiem w którym GPU prawie całkowicie zastąpi CPU? Tak czytam i czytam aż nie dowierzam, że te CUDA to CUDA niewidy ;) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
anemus Opublikowano 16 Czerwca 2008 Zgłoś Opublikowano 16 Czerwca 2008 (edytowane) Powiedźcie mi na ile jest realne to, że GTX2860/280 będzie krokiem w którym GPU prawie całkowicie zastąpi CPU? Tak czytam i czytam aż nie dowierzam, że te CUDA to CUDA niewidy ;)Nie jest realne. GPU to z punktu widzenia CPU dość prymitywne urządzenie. To takie mocno wykastrowane jednostki SIMD z CPU tyle, że zwielokrotnione. Właściwie GPU nie może się obyć bez CPU, a wszystkie programy wykorzystujące CUDA (te działające ;) ) są pod CPU, a GPU jest wykorzystywany jako koprocesor strumieniowy. Reszta to marketingowy bełkot. Najbardziej realne (a właściwie pewne) jest to, że jednostki wektorowe trafią do CPU, tak jak wcześniej FPU, tylko w tym wypadku (przynajmniej na początku) jako osobny(e) rdzeń(nie) w procesorach z rdzeniami heterogenicznymi. Edytowane 16 Czerwca 2008 przez anemus Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
sideband Opublikowano 16 Czerwca 2008 Zgłoś Opublikowano 16 Czerwca 2008 (edytowane) Te cuda to sobie można w dupe wsadzić , już to słysze od czasu G80 i h... wielki z tego. Nie ma jak marketing i wciskanie głupot - World of Conflict i cuda za czasów G80 , co jest oczywistą nieprawdą. Tymi cudami Nvidia mąci w głowach , bo jest walczy na noże z Intelem , muszą ich troche ich potraszyć. W sumie możemy spodziewać się aplikacji przez które będzie można kodować filmy i muzyke za pomocą gpu , oczywiście znacznie szybciej niż przy użyciu cpu. Edytowane 16 Czerwca 2008 przez sideband Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Ogi Opublikowano 16 Czerwca 2008 Zgłoś Opublikowano 16 Czerwca 2008 Imo , za wszystkim stoi kasa,ewentualnie dobry "lobbing". Jesli twórcy danej nowinki,będą w stanie przekonać producentów gier/oprogramowania,(kasą lub miłym słowem),to może być sukces. Inaczej będzie tak jak z innymi pomysłami. No ale tu bardziej kwestia balansu, ile kasy trzeba wyłożyć, a ile wróci, ze zwiększonego zainteresowania produktem. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Blue Opublikowano 16 Czerwca 2008 Zgłoś Opublikowano 16 Czerwca 2008 ja kupuje dwie sztuki ,kuzyn z usa przylatuje, to przywiezie, bo w polsce cena troszke wysoka....ale mozna bylo sie tego spodziewac. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Radzyn Opublikowano 16 Czerwca 2008 Zgłoś Opublikowano 16 Czerwca 2008 Dzięki za wytłumaczenie sytuacji bo trcohę sie pogubiłem z tymi CUDAMI ;) Ale to nie będzie tak, że jak programiści na prawdę się zmuszą do CUDA to wtedy procek będzie po to aby "trzymał" system? A GPU przejmie większość mocy obliczeniowej? Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Ogi Opublikowano 16 Czerwca 2008 Zgłoś Opublikowano 16 Czerwca 2008 Az takich "cud-ó-w" bym nie oczekiwał :) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
sideband Opublikowano 16 Czerwca 2008 Zgłoś Opublikowano 16 Czerwca 2008 Kodowanie filmów , muzyki itp oraz fizyka w grach i jak będzie tyle to już sukces :wink: Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
pmp Opublikowano 16 Czerwca 2008 Zgłoś Opublikowano 16 Czerwca 2008 a jak nazwac tych co biora po 3? entuzjasci? :lol2:Nazwałbym się szaleńcem :lol2: Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
anemus Opublikowano 16 Czerwca 2008 Zgłoś Opublikowano 16 Czerwca 2008 (edytowane) Dzięki za wytłumaczenie sytuacji bo trcohę sie pogubiłem z tymi CUDAMI ;) Ale to nie będzie tak, że jak programiści na prawdę się zmuszą do CUDA to wtedy procek będzie po to aby "trzymał" system? A GPU przejmie większość mocy obliczeniowej?Nie do końca. GPU świetnie wykonuje operacje mnożenia czy sumowania itp. (różne sprzętowo realizowane operacje macierzowe) na dużej ilości danych równocześnie ale zupełnie nie radzi sobie z zarządzaniem wątkami, rozgałęzieniami, alternatywami i innymi zadaniami. Nie nadaje się do zarządzania swoimi własnymi obliczeniami i nie bardzo wychodzą mu obliczenia na danych nie macierzowych (wszystkie jednostki pracują jak jedna często wykonując setki i więcej razy pewne operacje by uzyskać właściwy wynik podczas gdy CPU robi to w jednym takcie). GPU da się świetnie wykorzystać jako pomoc dla CPU i co ciekawe wydajność "procesora" graficznego z CPU. Mniej więcej optimum jest takie, że program wykonuje CPU ale jak potrzebuje wykonać operacje SIMD to odwołuje się do GPU z żądaniem np. pomnożenia macierzy przez inną macierz, odwrócenia jej itp. przygotowując mu porcje danych i zajmując się całym algorytmem postępowania. W takich zastosowaniach seria GTX2xx jest naprawdę dużym postępem w stosunku do rodziny 8xxx. Przynajmniej wg notek prasowych wykonuje już obliczenia w podwójnej precyzji co nie jest istotne w gierkach (na razie) ale w obliczeniach naukowych już tak. Do tej pory np GF8800GT mimo, ze na papierze miał 500GFlops to w FP64 często wydajność spadała czterokrotnie co już nie było jakąś rewelacją do Quada 3GHz. Teraz podobno mamy 1Tflops w FP64 @sideband I nawet w tych zastosowaniach bez "wsparcia" CPU jest problem. Nowoczesne algorytmy kodowania dynamicznie zarządzają kompresją w zależności od charakterystyki danej części danych (np części obrazu klatki). Często się zdarza, że GPU wykonuje kodowanie szybciej ale po obróbce przez CPU jakość obrazu jest o wiele lepsza (czasem efekt zastosowania GPU przy dużej kompresji jest tragiczny). Znowu najlepsze efekty daje współpraca ;) Edytowane 16 Czerwca 2008 przez anemus Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
ainaruth Opublikowano 16 Czerwca 2008 Zgłoś Opublikowano 16 Czerwca 2008 (edytowane) może nie takie znowu cuda.. DX10 też takie cudowne miało być.. dawać wolność programistom.. umożliwiać lepsze efekty.. a prawda jest taka, że po 2 latach mamy kilka gier z jego obsługą, z czego taki Crysis był zrobiony chyba po to żeby zajechać każdą kartę graficzną która wyjdzie i napędzać tym rynek. Prawdę mówiąc jedynymi którzy dobrze się spisywali w świecie IT byli.. spece od marketingu producentów sprzętu i oprogramowania. Może to dobrze że NVidia nie daje jakiejś mega wydajności, a wsadza różne bajery. Programiści może zaczną się uczyć jak ich używać jednocześnie optymalizując kod, a tymczasem spece od GPU popracują nad rozwojem owych bajerów już dla zwiększenia wydajności.. Edytowane 16 Czerwca 2008 przez ainaruth Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
sideband Opublikowano 16 Czerwca 2008 Zgłoś Opublikowano 16 Czerwca 2008 (edytowane) @anemus To co piszesz to chyba dotyczy G80 i wydajność spadała nawet trzy razy przy fp64 , bo wszędzie są porównania do G80 także w przypadku porównania do G92 nic takiego może nie mieć miejsca. Edytowane 16 Czerwca 2008 przez sideband Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
anemus Opublikowano 16 Czerwca 2008 Zgłoś Opublikowano 16 Czerwca 2008 @anemus To co piszesz to chyba dotyczy G80 i wydajność spadała nawet trzy razy przy fp64 , bo wszędzie są porównania do G80 także w przypadku porównania do G92 nic takiego może nie mieć miejsca. G80 i G92 nie różnią się architekturą procesorów strumieniowych i natywnie obliczenia prowadzą z pojedynczą precyzją. Dopiero GTX2xx (nie pamiętam kodowej nazwy) podobno obliczenia wykonuje z podwójną precyzją (jeszcze się nie wgłębiałem się w temat - na razie dorwałem notkę w testach). Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Radzyn Opublikowano 16 Czerwca 2008 Zgłoś Opublikowano 16 Czerwca 2008 Jeszcze raz dzięki za wytłumaczenie :) A co do cen gdzie jest najdrożej (Komputronik) nie jest aż tak tragicznie: http://www.komputronik.pl/Karty_graficzne/...alog,kat,12220/ http://www.komputronik.pl/Karty_graficzne/...alog,kat,12225/ Przy czym GTX260 od Evga już zdążył zanotować...spadek :P Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Maxforce Opublikowano 16 Czerwca 2008 Zgłoś Opublikowano 16 Czerwca 2008 (edytowane) a ja w sumie nie wiem ocb - gram w 1920x1200 4x, no i jeden 88gtx zdecydowanie srednio sobie radzi - np. mass effect okolice 20fps, zadna przyjemnosc. w innych tytulach, ktore mnie intersuja tez widze, ze 280 daje ladnie popalic 88gtx - WiC, CoH, prawie 2x wiekszy framerate. Crysis to inna bajka, ale tutaj tez dostajemy 2x wiecej, tyle, ze to jest nadal malo, ale od czego jest SLI ;) dostaje nowy (poprawiony) uklad z wydajnym ROP, FP64(cuda), PhysX, 1GB i w wymagajacych tytulach praktycznie 2x szybszy, no czego chciec wiecej ;)A zmienisz swoje SLI na to SLI.bo ja swojego z 8800GT nie.Cena zabija.lepiej kupić 2x8800GT cena 260$ niż to coś za 640$ no chyba że chcesz robić SLI to wydatek ponad 1200$ :mur: :mur: papiera .Trzeba mieś nie równo pod sufitem żeby z nich teraz SLI robić. Edytowane 16 Czerwca 2008 przez Maxforce Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
sledziq Opublikowano 16 Czerwca 2008 Zgłoś Opublikowano 16 Czerwca 2008 Śmieszy mnie argument cenowy... Pamietam jak ludzie kupowali 8800gt za 1200+, ja kupilem 3 miechy pozniej za 600, 2 miesiace dalej sa juz za 400. Dajcie rynkowi troche czasu ludzie, wyjdzie ATI, wyjdzie 260 i bedzie spoko Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Maxforce Opublikowano 16 Czerwca 2008 Zgłoś Opublikowano 16 Czerwca 2008 (edytowane) Śmieszy mnie argument cenowy... Pamietam jak ludzie kupowali 8800gt za 1200+, ja kupilem 3 miechy pozniej za 600, 2 miesiace dalej sa juz za 400. Dajcie rynkowi troche czasu ludzie, wyjdzie ATI, wyjdzie 260 i bedzie spokoCofnij się jak było,braki G92 wyższa cena,dostępność poleciała na 600,nowa generacja kart jest 400.Tu tego nie zobaczysz 260 jest dostępne od reki za 499$ tak samo jak 280 tylko czeka na kupowanie jak narazie wysyp zamówień na 280 nie ma.ATI raczej nic tu nie pomoże po wstępnych testach na xtremesystems żeby na 4850 w ustawieniach High pod XP było tak samo wydajnie jak na 8800GT.Jedyny ratunek dla nas i lepszego wyglądu tych kart to mniejszy proces produkcji i mniejsze ceny. Po następnych testach w crysis to na 99% AMD nie da rady żeby cenowo NV zeszła Rewelacja tyle to 8800GT wyciąga przypatrzcie się jeszcze na min FPS,tu też rewelacji nie będzie. 4850=AVG=30.19 Min=14.44 8800GT=AVG=30.44 Min=21.73 Dla zobrazowania Edytowane 16 Czerwca 2008 przez Maxforce Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Keniger Opublikowano 17 Czerwca 2008 Zgłoś Opublikowano 17 Czerwca 2008 HEHE i co panie i panowie sądzę na temat premiery - papierowy tygrys. Ale piękne czasy nastały. Karty High End chodzą po 500żł a kolejna seria mimo niewiele lepszej wydajności po 2000zł. Mam 8800GT i wszystkie nowe gry śmigają. Także życzę kolejnych takich premier tak Ati jak i Nvidii bo zyskamy na tym tylko my konsumenci "z głową". Nie macie wrażenia że rynek PC stanął. Ja pamiętam jak co roku musiałem się zastanawiać co wybebeszyć z pieca aby fps'y poszły w górę a teraz śpię spokojnie. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Ogi Opublikowano 17 Czerwca 2008 Zgłoś Opublikowano 17 Czerwca 2008 (edytowane) Coś w tym jest. Ktoś kto kupił na jesieni 2006,E6600@3600,8800GTX. Do dzisiaj w sumie może grać w gry, ze zbliżoną wydajnością, do ludzi kupujących dzisiaj sprzęt,E8xxx,8/9xxgt/gts/gtx. Edytowane 17 Czerwca 2008 przez Ogi Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Hanu Opublikowano 17 Czerwca 2008 Zgłoś Opublikowano 17 Czerwca 2008 Moim zdaniem powinniśmy rozpatrywać sprawę w dwóch poziomach - wydajność i cena. Pod względem wydajności widać wyraźnie, że karta jest mocna i łoi ostro pojedyncze karty poprzedniej generacji. Nie rozumiem dlaczego wiele osób próbuje je zestawiać z parką 8800GT czy też kartami GX2. Jaki to ma sens? Jeśli porównujemy karty to chip w chip, a nie na zasadzie dwóch na jednego. Idąc tym tropem jedynym prawidłowym testem byłoby użycie karty z 2xG280 na pokładzie. A skoro takowej nie ma to sytuacja jest jasna. Nowy G280 jest wyraźnie szybszy niż poprzednicy. Jeśli spojrzymy pod względem cenowym to dopiero w tym wypadku możemy mówić o zestawieniu go z kartami dwuchipowymi. Tu nie ma dwóch zdań, opłacalność zakupu jest problematyczna. Za tę cenę oczywistym jest zakup czegoś w SLI tudzież GX2. Suma sumarum - nowa karta jest naprawdę niezła, choć boli troszkę, ze Crysis nie chodzi tak jak to w główkach sobie wymarzyli czytelnicy forum. A że kosztuje sporo? Trudno, takie prawa rynku. Kogo stać nie biadoli i kupi, kto nie ma na nią kasy będzie zrzędził, że kicha i totalny zawód. Taka już mentalność Polaków. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Kikas Opublikowano 17 Czerwca 2008 Zgłoś Opublikowano 17 Czerwca 2008 (edytowane) Moje przemyślenia odnośnie mocy GTX 280: Na podstawie tabelki: http://enthusiast.hardocp.com/article.html...W50aHVzaWFzdA== i analizując wykres nr 2: http://enthusiast.hardocp.com/article.html...W50aHVzaWFzdA== można powiedzieć, że crysis słabo chodzi, ponieważ ma za małą moc shaderów. 240x1350MHz (GTX 280 wersja OC) kontra 128x1688MHz (9800GTX) to daje zaledwie 50% więcej mocy na papierze i 44% więcej średnich FPS w Crysis Very High DX10 1600x1200 anizo 16x. Karta jest mocna tylko wtedy, kiedy kończy się przepustowość pamięci i jej ilość na kartach starszych generacji. Dlatego 9800GX2 w większości współczesnych tytułów jest szybszy (18,5% więcej mocy shaderów w porównaniu do GTX 280 wersji OC). Podobnie 9800GTX SLI (33% więcej mocy shaderów w porównaniu do GTX 280 wersji OC) i 18,8% szybciej wg średnich FPS wg pierwszego wykresu. Można nawet powiedzieć, że optymalizacja shaderów jest słaba w GTX 280 względem 9800GTX. Może nowe sterowniki nieco to poprawią, ale pewnie niewiele. Edytowane 17 Czerwca 2008 przez Kikas Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Zieger69 Opublikowano 17 Czerwca 2008 Zgłoś Opublikowano 17 Czerwca 2008 (edytowane) W zasadzie zgadzam się z przedmówcą Hanu. Kto ma kasę to kupi i nie będzie oglądał się na komentarze noobków. Jednak mimo wszystko trochę przesadzili z ceną. Ja mam rocznego GTSa i w zasadzie nie narzekam (na rozdziałce 1280x1024), a gdybym miał 8800 GT x2 to z pewnością by wystarczyło na dłużej. W jednym z testów widziałem, że GTX 280 w porównaniu do 9800 GTX w rozdziałkach do 1680x1050 nie miał dużej przewagi. Więc razem ze zmianą grafiki przyjdzie zmienić monitor :D Edytowane 17 Czerwca 2008 przez Zieger69 Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość chronicsmoke Opublikowano 17 Czerwca 2008 Zgłoś Opublikowano 17 Czerwca 2008 Nie widzę kompletnie sensu w nowych kartach NV wybaczcie jeśli to są prawdziwe wyniki to wole dokupić kolejnego 8800GT do SLI. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
chemiczny_ali Opublikowano 17 Czerwca 2008 Zgłoś Opublikowano 17 Czerwca 2008 @Kikas test na Enthusiast robiony był na starszej wersji sterowników, gdzieś tutaj już był test na nowszych i poprawa jest znaczna :wink: Co do wyników to należy również wspomnieć jak testują panowie z [H] czyli szukają najlepszych grywalnych ustawień w danej grze, czyli karta X (GTX280) ma wszystko na maks i wysoką radziałkę, a karta Y (9800GTX) ma niską rozdziałkę i poucinane detale, ale wykresy są podobne, bo grywalność porównywalne tylko to co widzimy na ekranie już nie :) pzdr Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
sideband Opublikowano 17 Czerwca 2008 Zgłoś Opublikowano 17 Czerwca 2008 (edytowane) Sterowniki 177.34 i 36 , testerzy piszą , że kompletnie nic nie wnoszą w kwestii wydajności , a jedynie likwidują błędy. Edytowane 17 Czerwca 2008 przez sideband Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Kikas Opublikowano 17 Czerwca 2008 Zgłoś Opublikowano 17 Czerwca 2008 (edytowane) Ok, ale wybrałem wykres na tych samych ustawieniach. Nawet na stronie, którą podałem jest info, że stery nie zmieniają wydajności. Więc podtrzymuję moje kalkulacje. Edytowane 17 Czerwca 2008 przez Kikas Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
chemiczny_ali Opublikowano 17 Czerwca 2008 Zgłoś Opublikowano 17 Czerwca 2008 Sterowniki 177.34 i 36 , testerzy piszą , że kompletnie nic nie wnoszą w kwestii wydajności , a jedynie likwidują błędy.Czyli to mam rozumieć, że fake? :? pzdr Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Kikas Opublikowano 17 Czerwca 2008 Zgłoś Opublikowano 17 Czerwca 2008 Ok, przekonuje mnie ten wykres. Mógłbyś podać źródło? Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Sulaco Opublikowano 17 Czerwca 2008 Zgłoś Opublikowano 17 Czerwca 2008 (edytowane) można powiedzieć, że crysis słabo chodzi, ponieważ ma za małą moc shaderów.a ja sadze, ze mniejsza ilosc TMU (g200vgx2) daje o sobie znac. a to, ze crysis mocno z nich korzysta widac po spadku framerate przy zalaczonym aniso Czyli to mam rozumieć, że fake? :? pzdrtak Edytowane 17 Czerwca 2008 przez Sulaco Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
sideband Opublikowano 17 Czerwca 2008 Zgłoś Opublikowano 17 Czerwca 2008 (edytowane) Czyli to mam rozumieć, że fake? :? pzdrNa to wygląda , jak będe miał w rękach 177.34 i 36 to 100% będzie można potwierdzić. Jedynie moge potwierdzić , że pod xp 177.34 i 36 nic nie wnoszą. Edytowane 17 Czerwca 2008 przez sideband Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...