-
Postów
1357 -
Dołączył
-
Ostatnia wizyta
-
Wygrane w rankingu
1
Treść opublikowana przez focus_
-
Witajcie Sprawa wygląda tak: dostałem już druga płytę MSI P35 Neo2 FR (ver 1.1), bo pierwsza w czasie testów padła i druga też poszła w zaświaty, ale kolejno. To, że dwie płyty mi padły w czasie testów jestem w stanie, choć przychodzi mi to z wielkim trudem, zrozumieć - nie wiem mam prąd, który nie przeszkadzał 100 innym płytom, ale tej przeszkadza, może galaxy 7900 gs na zmianę z 8800 GTX'em przeszkadza tej płycie a innym płytom nie. Ale ten P35 w wydaniu MSI ma katastrofalnie niską wydajność - ponad 1 GB/s mniej w zapisie, odczyt porównywalnie gorszy. Sprawdzałem na trzech zupełnie różnych procesorach (E2160, E6320 oraz E6750) i 3 kompletach pamięci (Kingston HyperX, OCZ Reaper, GoodRAM PRO), co odbija się około 10 - 20% gorszą wydajnością w aplikacjach typu gry / programy. Wydajność jest "zryta" niezależnie od wersji BIOSu - oficjalne / nieoficjalne (nawet te dostarczone od producenta) - na wszystkich jest ta sama kijowa wydajność. Co do padów - powiem szczerze, że awaria pierwszego egzemplarza była dla nas zaskoczeniem i nie potrafimy dokładnie okreslić co sprawiło, że płyta nagle nie wstała - po prostu po którymś wyłączeniu (nie restarcie, lecz wyłączeniu) płyta więcej się nie obudziła. Druga sztuka padła mniej więcej po sytuacji typu: aktualizacja BIOSu, płyta działa, później po kilku restarach / wyłączeniach wkładamy E2160 i płyta już nie działa nawet na innych prockach. Wszelkie próby typu wymiany procków / pamięci / grafik / kasowanie BIOSu / wyjmowanie baterii i wiele innych kombinacji nie dawały skutku - próbowaliśmy to przez 3 godziny. Co ciekawe po jednym dniu "nie ruszania jej" płyta się obudziła i jak narazie działa ale wydajność wciąz "z pupy". Jutro sprawdzę ten pierwszy egzemplarz czy się mu wstanie. Z tego co zauwazyłem, to raczej polecacie tą płytę. Nie wydaje się mi, żebyście nie potrafili zauważyć takiej niskiej wydajności i też jestem pewien co do tego, że z naszej strony jest wszystko OK (rózne procesory, rózne pamięci, karty graficzne, zasilacze, wreszcie różne BIOSy) no i najwazniejsze - mamy dwa egzemplarze. Potrafi ktoś mi wyjasnić o co chodzi i uchronić przed daniem tej płycie 0/10?
-
Jeśli za te pieniądze to rzeczywiście jest to bardzo ciekawa oferta z pewnością konkurencyjna dla 8600 GT i to mocno. Ale czy tak bez trudu to ona znowu nie zjada 7900 GS'a ale ten znowu jest dużo droższy więc nie ma co porównywac. Ale może wreszcie fanATIcy zauważą, że to seria HD 2600 jest do pupy i na nią najeżdzamy a nie na ATi jako takie.
-
Właśnie na temat znaczenia pamięci znalazłem coś ciekawego: http://www.digital-daily.com/video/vga_memory_bus_128-256/ Ale powiem szczerze, że nie miałem czasu tego czytać a tym bardziej analizować, więc nie wiem jaka jest tego przydatność.
-
Ja na sterownikach 7.7 jak i betach 7.8 problemów nie miałem na wszystkich kartach jakie testowałem. Bardziej stawiam na kwestię BIOSu bądź niekompatybilności Twojej karty z płytą główną - upgrade BIOSu do niej też wskazany.
-
Po pierwsze nie odpisałeś mi na pozostałe pytania. a po drugie logika podpowiada, że podniesienie taktowania rdzenia o 20% nie może dać wzrostu wydajności większego niż 20%, a z reguły jeśli pamięc nie pójdzie w parze nie ma co liczyć na więcej niż 10 - 15%. A jedncześnie cały czas podkreślasz, że 2600 zrobi po vmodzie 1100 MHz, zaś 8600 gt do 1 GHz nie doskoczy (albo nawet do 900). Mówimy tutaj o jakiś naprawdę ekstremalnych częstotliwościach, bardzo trudno osiągalnych na tych kartach. Jeśli potrafisz to zrobić to i potrafisz sam ocenić która karta jest lepsza - ja Ci w tym pomagać nie muszę. Ale jednak takie o/c jest dostępne dla naprawdę wybranych, więc dla całej reszty mój artykuł jest właściwy. Dla takich jak Ty nie musi być, gdyż tacy jak Ty biorą pod uwagę zupełnie inne częstotliwości. Ale nawet jeśli faktycznie ten 2600 zrobi 1100 Mhz na rdzeniu, zaś 8600 gt dociągnie do 950 MHz na rdzeniu to stosunek częstotliwości jest niewiele gorszy na rzecz 8600 GT, więc i samo porównanie jest wciąż aktualne. Ale cały czas czekam na pytania jakie Ci zadałem. Mam nadzieję, ze w kolejnym poście uzyskam odpowiedź.
-
Wiesz dobrze, że o ile większość osób z tego forum i nie tylko podkręca o tyle już niewiele osób robi vmody. Ale nawet jeśli @600 zrobi na rdzeniu po vmodzie 950 czy nawet 1 GHz to i tak mu to nie pomoże w pokonaniu 8600 gt z rdzeniem na 700 MHz. I nawet jeśli teraz 8600 GT nie robią tych 700 MHz to przy 650 MHz (co chyba nie zaprzeczysz) zrobią na 100% i tak bęzdie to karta szybsza. Kolejna rzecz - miałem 5 kart 2600 PRO / XT - wczesne wersje? wersje sklepowe to są wczesne wersje? Będa nowsze rewizje - za miesiąc / dwa sprawdzimy jak się ocują. Wiem jednak, że karta MSI 2600 PRO po moich testach pojeciała do In4.pl i zrobiła już 20 MHz mniej na rdzeniu. A czy ja gdzieś napisałem, że 7600 GS / GT jest lepszym wyborem? Nie - skupiamy się na kartach teoretycznie DX10. A nawet jesli nie to w testach moich jasno widać, że 7600 GS / GT to karta słabsza i nawet wyżej napisałem czarno na białym, że palit 2600 pro to jedyna karta z serii 2600 którą warto kupić - ale tylko jeśli się dysponuje kwotą 300 złotych. Napisałem to też w recenzji. Na czym ten fanboizm polega? Na tym, że testuję w 35 grach, a nie w 5, albo że zauważam problemy ze sterownikami (równiez nvidii), podczas gdy inni nie? EDIT Tutaj masz relację tych kart bez AA: http://www.egielda.com.pl/images/art/e9c01...fe3b6d66d26.gif Jak checsz to wyślę Ci excela z tymi wyliczeniami i dodaj sobie do wyników Radeona nawet 10% i tak 2600 PRO / XT przegra. A cały czas musimy pamiętać, że w wielu grach na 8600 GT AA będzie można włączyć, np. w 1024 x 768 - na Radku nawet jeśli w gołym 1024 x 768 będzie OK, to AA w 800 x 600 często nie będzie grywalne. Nie dostrzegasz, że w ATi zastosowałem sterowniki Beta by móc odpalić lost planeta, czy world in conflict i szukałem rozwiązania problemów, podczas gdy w nvidii gdy SCDA nie działał po prostu dałem dyskwalifikację.
-
No przecież masz testy i jak na dłoni widać, że do 8600 GT to ten Radeon nie ma co doskakiwać i oczywiście mówimy o O/C tych kart - maksymalnym O/C Radków i wcale nie maksymalnym O/C GF'a. Gdzie Ty widzisz tą wyższą wydajność co nowsza wersja sterowników? W 3DMarkach może tak, ale ja testowałem tą kartę na 7.7 oraz 7.8 i nie licząc tego, że naprawili błędy w grach jak np. lost planet to wydajności wyższej nie było na 7.8 - więc masz może już końcową wersję 7.9? 8600 GT / GE z pewnością demonem wydajności nie jest - raczej karta średniak (mocno średnia), ale z pewnością jest lepsza od 2600 PRO / XT. Chyba, że mówimy o jedynej karcie jaką jest Palit 2600 PRO - bo tą jedyną warto kupić jesli się ma 300 złotych i ani grosza więcej. Bo jeśli się już dysponuje kwotą 350 złotych lub więcej to nie dorzucić do 8600 GT (lub 7900 GS / X1950 GT / PRO)grzechem będzie
-
Jeśli masz możliwość dopłacić do 8600 GT, to oczywiście warto.
-
Pewnie timingi będzie można skrócić, ale musi do tego wyjść SOFT - jeszcze 2 tygodnie temu go nie było. Ale wtedy odbije się to negatywnie na O/C i wątpię by skracanie timingów dało wzrost wydajności licząc się z O/C rdzenia i pamięci.
-
No w recenzji, którą Ci podlinkowałem wszystko jest napisane - wystarczy przeczytać.
-
Chyba faktycznie za dużo napisałem, ale... Faktycznie AMD wskazuje, że wygładzanie odbywa się w RBE, ale jednocześnie z moich obserwacji wynika, że radeon x1900 nie obrywa jakoś mocno po włączeniu AA względem X1800, a taka sytuacja powinna występowac, jeśli cały proces odbywa się w RBE - identyczne relacje można było obserwować między 7300 GT GDDR3 a 7600 GT (po włączeniu AA 7600 GT mocno się zbliżał do 7300 GT) - stąd też moim zdaniem te właściwe operacje wygładzania wykonywane są już przez same shadery. Co do usprawnienia technik AA - nvidia nie usprawiała algorytmów ile zdecydowania wzmocniła możliwości jednostek ROP w zakresie HDR'u oraz własnie wygładzania krawędzi. Wyniki FillRate na to wskazują (nie wiem jaki to ma związek, ale jeden z testów "Z Pixel Rate" jest astronomicznie wysoki i nvidia wskazywała właśnie ten element jako przyczynę wysokiej wydajności AA. Moim zdaniem nie powinno się być w tej kwestii pewnym zarówno w jedną jak i w drugą stronę.
-
Od początku (niemal) tego wątku wszyscy piszą, że 2600 PRO kręci się na XT i nikt tutaj nie ma wątpliwości, co do słuszności takiego zabiegu, a Ty jednak masz :blink: Palit 2600 PRO ma wolniejsze pamięci od innych kart 2600 PRO / XT i przy takim samym taktowaniu jest od nich nieco wolniejszy. Radeon HD 2600 XT / PRO - testy.
-
Nie obraź się, ale bzdury pleciesz ;P Mała ilość jednostek ROP (jeśli już w ogóle o takich może być mowa, bo tam są tylko render back ends) nie wpływa na wydajność AA w przypadku tych kart, bo to nie te jednostki wygładzają a właśnie shadery. ROPy nVidii GF8 a RBE ATi HD2000 mają wspólną ze sobą w zasadzie tylko jedną funkcję - "wypluwają" piksel do bufora ramki - oczywiścje jest to pewne uproszczenie, ale mało ilość ROP (RBE) nie ogranicza wydajności AA na tych kartach.
-
Nie ma to jak efekt placebo co do wydajności. Karty w najgorszym wypadku w tych dwóch grach są porównywalne, a z pewnością Radeon nie jest szybszy. No chyba, że Ty kręcisz Radeona, a on nie kręci GF'a. Co do jakości obrazu to wypowiem się później.
-
Sterowniki 7.8 wskazują taktowanie w 2D, które jest rzeczywiście tak niskie.
-
Śmiej się śmiej - ciekawe dlaczego AMD nie podało mi informacji dlaczego mam aktualizować BIOSy - podobno problem nie jest im znany - oczywiście...
-
Ten news, czyli bojkotujący rzekomą wpadkę AMD, to jest bzdura - MSI Raedon HD 2400 PRO by w ogóle działał potrzebował aktualizacji BIOSu, podobnie 2600 XT i PRO tej firmy. Gigabyte 2600 XT miał już nową wersję gdy go dostałem do ręki. Jednak najgorzej było z tym 2400 PRO, bo na tym nawet sterowniki się nie chciały zainstalować. Gdyby problem nie istniał to bym tych manewrów robić nie musiał.
-
840 MHz to był ich max - niestety. Akurat MSI 2600 XT 512 MB zrobiło bez problemu 850 MHz, więc uznałem, że tamte też tyle zrobią, bo ich jeszcze w ręce nie miałem, a się okazało że nie tak łatwo niestety. Co do zwisów - w przypadku 2400 pro to się zgodze, ale każdego 2600 pro / xt kręciłem bez problemu.
-
Możliwości masz trzy. 1. Riva tuner - działa dobrze, ma możliwość zapamiętania ustawień, by przy starcie windowsa karta była podkręcona. Pamiętaj, że w monitorze rivy pomimo podkręcenia karty widoczne są wciąż te same zegary (i to akurat niezależnie czy podkręcisz CCC, rivą czy czyms innym) - ale karta się podkręca, więc się tym nie przejmuj 2. CCC - jeśli instalujesz tego bydlaka to w sumie działa to dość sprawnie - na wersji 7.8 wreszcie dodali test ustawień - ogólnie CCC 7.8 jest fajniejsze i to dużo. 3. AMD Clock gen czy jakoś tak się to nazywa - dobre, ale trzeba ocować po każdym starcie windowsa jeśli się nie mylę.
-
No nie mów, że tyle czasu siedziałes przy 60 Hz i nie szukałeś rozwiązania? W CCC nazywa się to chyba Monitor properies, w każdym razie po prawej stronie, na dole zobaczysz nieaktywne pola z ustawieniem 1600 x 1200 oraz 60 Hz - aktywuj to i ustaw maksymalną rozdzielczość Twojego monitora i np. 125 Hz - wówczas tyle ile ustawisz w opcjach rozdzielczości / odświerzania w tradycyjnych miejscach tyle powinno być.
-
Prawy klik na ikonkę ATi w trayu i tam dajesz "always off" i działa zawsze niezależnie od ustawień gry. W każdym razie ja już wtedy problemów nie miałem. No właśnie cały problem w tym, że nie :) W takim Preyu ati wypada lepiej niż np. w doomie czy w quake 4, a doome3, far cry i half life 2 to taka "trójca" niezbędna ;) Testów DX10 nie jest wiele ale i tak wykorzystałem wszystko co było możliwe. W tym kierunku musimy iść tym bardziej, że ludzie interesujący się zakupem 2600 i 8600 głównie wybierają te karty jako kompatybilne z DX10. Nie przeglądałem szczegółowo screenów, ale na pierwszy rzut oka nie zauwazyłem różnic. Przemyślę sprawę w takim razie :)
-
Spróbuj zaktualizować BIOS w płycie głównej oraz zainstaluj bety 7.8 - jeśli to nie pomoże to ja już nie mam pomysłu.
-
Kurcze dziwna sprawa - ja na 100% nie miałem przycięć w Carbonie jak i w Oblivionie. Dasz rady w sklepie wymienić karte na inny egzemplarz? A może kart się przegrzewa?
-
Ja to zaobserwowałem tylko w niektórych grach, jak cellfactor czy STALKER. Sprawdź może w innych grach.
-
Co do V-Sync'a - zawsze jest on wyłączony (wymuszone) - nie może być sytuacji, że ilość FPSów jest limitorwana do np. 60, bo akurat tyle mam Hz na monitorze. Negatywnego wpływu na wydajność (tą wykazywaną przez FRAPS'a) nie zauważyłem. Co do Supreme-Commander - myślałem o tej grze, ale z tego co widziałem to raczej małe zainteresowanie nią jest, a że mam już ponad 30 gier w zestawie, to juz rozumiesz ;) ciężko jest dorzucac następne, które nie są takie super ważne i kluczowe. Do tego jak wiesz, nie lubię stosować wbudowanych benchmarków, gdyż te moga być optymalizowane przez producentów, podczas gdy rzeczywista gra już nie. Czego najlepszym przykładem jest Company of Heroes, gdzie we wbudowanym nvidia wypada lepiej niż w prawdziwej grze. Co do 7900 GS i X1950 PRO w tych nowych grach - mam to w planie, ale przyznam, że dośc trudno jest dostac na testy X1950 PRO - ale będę chciał takowe testy wykonać. Co do UVD - niestety nie miałem czasu ani mozliwości przeprowadzić takich testów. Bodajże Weelkoo na frazpc tą kwestię testował.