-
Postów
1491 -
Dołączył
-
Ostatnia wizyta
-
Wygrane w rankingu
2
Treść opublikowana przez TomaszPaweł
-
Hmmmmm Ja chyba też pójdę w 5850.... no bo co lepiej mieć 1 HD5870 za 1400(1500)zł..... czy 2x HD5850 za1900zł....
-
Oby ktoś w końcu trafił 6.... przyda się: 3x5870 3x5870 :)
-
Potwierdzam - CUDA ładnie chodzą nic się nie wykłada :)
-
Siema! Zasadniczo to jakim samochodem jechałeś!? GTX280 - powinien przetworzyć nie więcej niż 4 jednostki na dobę. Załóżmy, że każda jednostka ma do 30MB dało by nam to: 3600 mb miesięcznie. Myślę, że w przedziale 2-5GB mieścisz się spokojnie. Może nawet przesadziłęm z tymi 30 mb, ale lepiej liczyć na zapas...., jeśli by było 25 to wychodzi 3000MB... A jeśli założyć, że wydłużył się czas przeliczania i machnie tylko 3,5 to nawet może wystarczyć 2600Mb. Oczywiście wszystko zależy od konkretnych rozmiarów próbek i wyników. To co podałem to raczej wartości maksymalne i przy założeniu 24h/dobę... Jak dałem ciała w wyliczeniach to niech mnie ktoś poprawi, bo chilowo nie mam żadnych próbek z GPUGRIDA a rozmiary pamiętam ze strarszych WU. EDIT!!! Porównanie w MW Radeona starego i nowego :) Device 0: ATI Radeon HD 4800 (RV770) 1024 MB local RAM (remote 2047 MB cached + 2047 MB uncached) GPU core clock: 790 MHz, memory clock: 1000 MHz 800 shader units organized in 10 SIMDs with 16 VLIW units (5-issue), wavefront size 64 threads supporting double precision WU completed. CPU time: 14.1493 seconds, GPU time: 42.9625 seconds, wall clock time: 44.197 seconds, CPU frequency: 3.59989 GHz Device 0: unknown ATI card 1024 MB local RAM (remote 2047 MB cached + 2047 MB uncached) GPU core clock: 900 MHz, memory clock: 300 MHz 1600 shader units organized in 20 SIMDs with 16 VLIW units (5-issue), wavefront size 64 threads supporting double precision WU completed. CPU time: 10.1557 seconds, GPU time: 19.3596 seconds, wall clock time: 20.247 seconds, CPU frequency: 3.86047 GHz
-
Jak nie ma AQUA to MW... 0.20SSE3 64 bit Na Q8200 1 kredyt w 36-38s. na 1 rdzeń czyli defakto za 24 h możemy wydoić 9000c Na Q9550 1 kredyt w 29-30s. Ewentualnie olewamy kredyty za CPU i liczymy np. Rosettę - hobbistycznie :) Tam to nawet nie ma sensu liczyć ile za ile..... bo się tylko człowiek denerwuje....
-
Pazerność ludzka nie zna granic .... LOL Przypomnę że ta karta powinna kosztować 1350zł....
-
Zgadza się w 100%. W sotosunku do GTX285 mamy od 97% jego mocy do.... 161%!!! Jesli chodzi o GTX295 to w większości jest on minimalnie szybszy, ale ja i tak wolę kartę jednoukładową.... Myślę, że w nowych grach dopiero pokaże swoje pazurki :) Jesli chodzi o stosunek zużywanej energii do fps to nowy radzio jest bezkonkurenyjny........ A i sugerowana cena detaliczna to 1350zł ... A tak ot... to najbardziej opłacalną kartą w klasie economicznej jest.... HD4870.... za około 440zł... lub HD4850 za około 350zł.... ale się porobiło.... Dodam jeszcze, że HD5870 je mniej prądu od GTX275 i jest od niego .... chłodniejszy :) Realna długość to ..... 28cm woow.... 2x 6pin..... Ja po prostu kupuje ta kartę :) A trochę teroii: 2.7 TeraFlops Single Precision 544 GigaFlops Double Precision - w MilkyWay będzie gwiezny szał!!!!
-
No właśnie zapoznałem się z pełną recenzją HD5870 i powiem jedno - Szał czerwonych ciał :) ale nie we wszystkich grach.... W więkoszości mamy wydajność bardzo zbliżoną do GTX295, ale w paru tytułach jest wolniej niż GTX285.... a w paru szybsza lekko od GTX295....
-
Popieram OpenCL to będzie przyszy standart. Mam nadzieję, że nVidia w GT300 ulepszy double precision bo obecnie ATI kładzie ją na łopatki..... Programista powinien pisać pod OpenCL a producenci kart powinni takie drivery wypuszczać by to działało. Cuda-Fuda fajne ale tak jak GLIDE nie ma przyszłości na rynku, no chyba że nVidia kupi AMD/ATI.... ale by były jaja.... Co do jednego nVidia ma rację karta graficzna to już nie tylko wydajność w grach....
-
Milka już karmi.... w GPUGRID stukneło nam 10 000 000 już jakiś czas temu :) GRATULACJE!!!! P.S. Zadbajmy o to, by przełączając się z jednego do drugiego projektu, starać się przeliczać wszystkie zessane WU - myslę, że to zachowanie ceciach!e porządnego crunchera... i dobrze o nas świadczy :) Sam się męczę z kilkuset jednostkami Rosetty - płatne 1 kredyt za ponad 200s....
-
No..... będą je produkować?
-
Panowie, wyluzujcie.... na allegro pewnie będzie masa aukcji ale Pan kupi a "my" z landu wyślemy kurierem.... HD5870 --> 1285zł brutto - no w miarę rozsądna cena.... może ktoś popchnie i za 1200 .... są tacy magicy na allegro
-
Ojej a raczej WTF... Szykuje się nam kolejna, głośna, gorąca bestia.... A miało być chłodno, cicho i wydajnie... 40nm :lol2:
-
Do dzisiaj pamietam jak za 8800GTS 640 MB dałem 1500zł - i ta karta była tego warta. Ale czy 5870 będzie wart tych 1400zł.... Mnie najbardziej interesują testy AA i Anizo... oraz testy w MilyWay@Home :oops:
-
Siema! post wyżej jest o GPU CUDA... Moja rada - na tym hoście opuść projekt i dołącz ponownie :) Gwarancja zciągnięcia aktualnych dll i aplikacji :) Jakie próbki ci GPU liczy tyle czasu? 7 i 17 godzin?! P.S... serwery MilkyWay nie wysyłają nowych WU..... Ciekawie bedą wyglądały jutrzejsze statystyki, ba już na dzisiejszych odcisneło to swoje piętno.... Collataz - finalnie wychodzi 1 kredyt w 2,22s. po rozwiązaniu problemów z walidatorem na CUDA GTX260 700/1500
-
Core 2 Quad - Q9300 / Q9450 / Q9550 / QX9650 / QX9770
TomaszPaweł odpowiedział(a) na ath temat w Intel
Zgadzam się, na Q9550 spoko można poczekać do PCI-E 3, S-ATA 3 i .... USB 3.0 :) No chyba że ktoś musi mieć 8 CPU logicznych..... -
Pojawiła się nowa aplikacja w Collatz Conjecture 2.0 Co daje, różnie.... W GPUGRID średnio 1 punkt otrzymujemy w 5,11 s. - zakładając że mieścimy się z odesłaniem WU w 48 godzinach od pobrania. (GTX260 700/1500) W Collatz dzieją sie rózne rzeczy... teraz punkty otrzymujemy za liczbę przeliczonych kroków.... czyli jest dynamiczne przydzielanie punktów. Występują niestety jeszcze błędy validatora i zdarza sie, że za 20 minut obliczeń dostajemy .... 0 punktów. Obecnie zsysają się jednostki 20 minutowe i 40 s. za 40 sekundowe wyciągamy nawet 1.5 punkta na s. 20 minutowe mają problemy z walidacją.... Edit: Przeliczyłem 47 jednostek i narazie wychodzi 1 kredyt w 1,967s:) Ale jeśli dodamy do tych 48 te które nie mogły być uznane za prawidłowe + 5 to wychodzi nam 1 kredyt w 2,438s .... Pojawiła się nowa wersja aplikacji dloa CUDA 2.01 - miejmy nadzieję, że rowiąze problemy które wyszły w między czasie z punktami zapisy.... "The Collatz v2.01 CUDA app should fix that problem. It was not reading the total steps calculated from the checkpoint file properly and therefore the total steps is off even though the max number and max steps were correct. Now I have to figure out how to credit those that had only that problem as the reason they were inconclusive." CUDA and Firewall/Network Updates/Changes September 19, 13:44 CST Version 2.01 of the Collatz CUDA app is now available. It should fix the checkpoint problem where it returns the incorrect total steps after starting back up. Also, due network reconfiguration changes to hopefully help make the server more responsive, the IP address has once again changed which means you may need to stop and restart your BOINC client in order to upload/download/report results.
-
e tam.... przynajmniej 6 jajek :lol2: a najlepiej 2x6 czyli 12 :lol: Nie tylko jajka i taktowanie ale i architektura ......
-
Rewelajca! Choć osobiście uwazam że G80 i GT200 są równie udane i rewelacyjne. Ale jako reklamówka HD5870 to jest świetne!!!
-
Jak Włączyć Kartę Graficzną Po "wyłączeniu Urządzenia"?
TomaszPaweł odpowiedział(a) na Sound3D temat w AMD
To jego sprawa. Miałem kiedyś podobny zonk. Zrób tak - rozpocznij instalację driverów, wtedy w menadzeże urzadzeń pojawi ci się karta która znikneła, otwórz jej zakładkę i nie zamykaj. Po zakończeniu kreatora instalacji, spróbuj recznie zainstalować drivery z lokalizacji , gdzie je uprzednio wypakowałeś. Mi to kiedyś pomogło. aaaaa doczytałem, że nie masz obrazu..... jesli nie masz obrazu - to najpierw warto spróbowac przeywracania systemu z dvd -
Całkowicie mylne, wyssane z palca założenie. Wielu userów ma standardowe monitory i oczekuje płynnego obrazu w natywnej rozdzielczości. Granie na TV jest mimo wszystko u nas żadkością.... Malo kogo stac na złożenie drogiego blaszaka i zakup jeszcze TV do grania..... Ja od nowej karty graficznej oczekuję, aby miała taką wydajność , która pozwoli mi grać ze wszystkimi wodotryskami na maxa, z aa minimum 4x i Anizo 16 we wszystkie dostępne tytuły w rozdzielczościach od 1280x1024 (większość LCD) poprzez 1680×1050 (1600x1200) skończywszy na 1920×1080. Jeżeli w chwili premiery najwydajniejsza karta graficzna miała by problemy z zapewnieniem progu płynności w natywnej rozdzielczości w tytułach obecnie dostępnych na rynku - to byłby to GNIOT - a nie żaden rewolucyjny wynalazek. Płynność to 30-60FPS zależnie od tytułu, z preferencją 40+ do 60.... I mówimy tu oczywiście nie o średnim a o minimalnym FPS.... Taka jest prawda a prawda jest tylko jedna. Przynajmniej w kategorii Wydajność. Kategoria cena/wydajność to już zupełnie inna bajka. I na koniec pytanie zasadnicze - czy nowa karta ATI HD5870 zapewni minimalny FPS na poziomie 30-60FPS we wszystkich obecnych tytułach w trybie miłym dla oczu? Czekam na niezależne testy.....
-
Też mi się tak wydaje jak patrzę na te słupki. Najciekawsze nie są te które dają max przewage ATi a te które dają przeage najmniejszą. Jak tak dalej pójdzie to GT300 pewnie jak zwykle bedzie dużo wydajniejszy od HD5870 ale i dużo droższy w produkcji.... a co za tym idzie równiez dla końcowego usera.... Ati bedzie walczyło ceną w segmencie High end tak jak jest teraz - 4890 kontra GTX 275, a kartami 2 rdzeniowymi w Enthusiast. Natomiast pojedyńczą koronę wydajności pewnie znowu bedzie miała nVidia... Ale jak narazie wydajność nowych kart ATI będzie wystarczająca nawet do HD więc to będzie dla większości naturalny wybór...... bo nvidii nie ma na rynku a jak będzie to będzie droga...
-
Co Ci powiem, to Ci powiem, ale Ci powiem.... Ładne i schludne PCB :) Ile jeszcze będziemy czekali na testy...... no i jaka będzie różnica w cenie pomiędzy wersją 1GB a 2GB....