Skocz do zawartości

focus_

Stały użytkownik
  • Postów

    1357
  • Dołączył

  • Ostatnia wizyta

  • Wygrane w rankingu

    1

Treść opublikowana przez focus_

  1. focus_

    Geforce 8800 GTX / GTS

    Jutro wszystko zaprezentuję łącznie z jakością AA i Anizo - ale taką prawdziwą, a nie podesłaną przez nVidię ;)
  2. focus_

    Ati Radeon X1650

    Jesli kogoś interesuje porównanie X1650 PRO oraz X1300 XT w wykonaniu firmy Sapphire na AGP to zapraszam: Radeon X1300 XT oraz X1650 PRO vs. GF 7600 GS
  3. z takim chłodzeniem, karta będzie miala kopa :)
  4. focus_

    Ati Radeon X1650

    My nie robimy testów na domyślnych ustawieniach - tylko na podkręconych. Nie testujemy jednoczesnie na ustawieniach maksymalnych, gdyż zawsze dostrajamy częstotliwości tak by odpowiadały przeciętnemu overclockingowi kart u przeciętnego usera. Karty Galadxy 7300 GT podkręcają się na około 600 Mhz na rdzeniu oraz 800 MHz na pamięci, te X1300 XT jeszcze nie ma w wklepach, ale patrząc na wyniki o/c innych serwisów oraz na zagranicznych forach uznałem, że 770 MHz dla pamięci będzie oki - rdzeń miałem jakiś wyjątkowo kiepski i dlatego testowałem go na maximum, wszyscy zrobili przynajmniej 640 - 650 MHz. ta karta nie jest warta nawet 350 złotych :( choć i tak trzeba uznać plus dla sapphire'a za ten sam krok co galaxy. Pozdrawiam :)
  5. focus_

    Ati Radeon X1650

    chyba nie było sensu czekać :( Test Radeona X1300 XT kontra Galaxy GF 7300 GT GDDR3 Pozdrawiam :)
  6. focus_

    Call of Juarez

    wykorzystuje wykorzystuje 2335348[/snapback] Kto ma z grajacych w COJ GeForce z serii 6xxx ? (juz prosciej sie zapytac nie moge). wpadłem na pewien pomysł, ale nie wiem czy się uda - ale zawsze warto spróbować :) w głównym katalogu gry jest plik r_device.scr edytuj go i znajdź Twoją kartę - najlepiej zmień to zarówno dla GF'a 6600, 6200 jak i 6600 GT w pliku dwa razy jst zapisany 6600 gt, dwa razy 6600 oraz 4 razy 6200 pod róznymi wersjami - jak popatrzysz na to, to powinieneś sobie z łatwością poradzić i wymusić najwyższy tryb shadera czyli "VideoLevel(2)" daj znać czy sie to udało :) Pozdrawiam
  7. aha - nie wiedziałem :? A czytałeś artykuł? :D :-P A ile gier skorzysta z dwóch rdzeni? Call of Juarez (tutaj nie skorzysta, bo i tak grafiki braknie) Xpand - skorzysta Quake 4 - nie skorzysta bo grafiki braknie iiiiiiiiiiiiiii to by było na tyle :) Zresztą użycie procesora uwadniłoby tylko różnice w grach, gdzie go brakło - jeśli czytałeś artykuł o znaczeniu procesorów w grach rev 2.0 to będziesz wiedział o co chodzi :) karta jeszcze nie jest dostępna w Polsce, a wydajność wzgledem 7950 GX2? Napisałem o tym na początku i na końcu artykułu :) racja - doczytałem - mój błąd. Przepraszam. masz racje :( niestety, ale nie jest źle zrobią to Ci co będą mieli po mnie kartę - im się uda, a to tylko dobrze - wówczas zaktualizuję artykuł, jeśli faktycznie się to uda.
  8. Chciałbym nie musieć dawać linka :) Ja robię to tak, że na nVidii po za kilkoma wyjątkami (gdy na source, gry na doom3, hitman, scct oraz X3) to zawsze AA i Anizo jest WYMUSZONE ze sterowników - w przypadku ATi w tych dwóch grach nie można tego zrobić, a więc próbuję to z poziomu gry. Jeszcze raz, żebyśmy się zrozumieli - oglądałem ten test uwzględniający jakość obrazu i w takich grach jak oblivion czy Half Life 2 to ja nie widzę różnicy (nie licząc znikającej siatki w Hl2 na ATi) - a nawet jeśli jest to nie jesteś w stanie jej zauważyć w czasie gry. Po prostu dla mnie zupełnie osobną kwestią jest to, że jedna karta np. szkaradne cienie, zaś zupełnie inną kwestią jest to, że obraz na jednej karcie wygląda jak z anizox2, podczas gdy na drugiej jak bez anizo. Wiesz tutaj nie chodzi o to, żebyśmy rozpętali kolejną wojnę ati vs. nv - zaraz by mnie tu wzieli za nvidia fanatikosa, nawet jakbym głosił prawdy z nieba. Po prostu nie ulega wątpliwości, że tak scharatane cienie jak ma to miejsce w nfs na radeonach to problem znacznie większego kalibru niż fakt, że na nvidii tekstury zaczynają się rozmywać nie po 20 metrach, a po 15. Jeśli Ci to będzie przeszkadzało to włączysz anizo, a na RAdeonie co zrobisz? na upartego to ja mogę zrobić tak, że nvidię będę tesował ZAWSZE na anizo x4 ale w 99% przypadków nie wpłynie to na wynik w stopniu takim, by przesądzić o wygranej - wówczas argument o jakości obrazu padnie i będzie kwiczał. Po prostu czasy kiedy anizo było luksusem dawno minęły - dziś włączasz anizo i prawie nie odczuwasz spadku wydajności (nie mówię o sytuacjach granicznych, gdzie bez anizo jeszcze da się od biedy grać, a z anizo już nie). Kolejna rzecz: test jednej karty graficznej w moim wykonaniu to około 30 - 40 godzin bitej roboty - komputer cały czas pracuje, a ja siedzę przy nim i od czasu do czasu oglądam obraz (bo nikt nie jest tak pop^%%$^%#$^, żeby oglądać po raz setny te same dema, choć wiem, że 3dmarkowcy to porawią oglądać cały dzień jeden benchmark i się jarać - bez obrazy). W większości gier natychmiast widać przekręty - znam te wszystkie miejsca na tyle dobrze, że z dość wysoką dokładnością okreslam czy się coś nie zmieniło. To już jest obsesja, ale zaczynam pamiętać jaka karta gdzie jest płynna, a i często zapamiętuję z grubsza wartość FPS w danym trybie. Taki zawód niestety. Gdybym do każdego testu karty graficznej musiał robić porównanie obrazu trzeba by dorzucić kolejne 30 godzin, a i test nie byłby na takim poziomie jakbym chciał. Po prostu pewnych rzeczy nie da się zrobić i trzeba sobie pozwolić na pewne uproszczenia - testując 5 gier pewnie bym sprawdzał wszystko dokładnie, ale przy 30 nie jest to możliwe, Ale jak już to mówiłem ze 3 razy - jeśli różnica nie jest widoczna gołym okiem bez porównywania screenów to moim zdaniem nie jest warta uwagi. Na tej zasadzie to w każdej grze musiałbym inaczej ustawiać filtrowanie oraz odejmować i dodawać wartości FPS, bo konkurent miał inną jakość obrazu. Liczy się to, że w rozdzielczości 1024 x 768 z anizo-x8 bez fsaa zagrasz w tą gierkę na takiej karcie, a na innej już nie. A że na tej pierwszej przydałoby się właczyć nieistniejące anizo-x10 (to nie jest literówka) to już nic nie zmienia. To samo tyczy się wygładzania krawędzi - nie interesuje mnie jaką metodą jest to robione - wygląda w pewnym przybliżeniu jak AAx4 - jest znacząco lepsze od trybu AAx2, i jednocześnie w niższych rozdzielczościach widac te wygładzane schodki - jeśli wygląda jak ma wyglądać to test jest zaliczony. Mówię - w ten sposób to musiałbym GF'a zdyskwalifikować z tak około 10 gier, zaś radeona z 20 - bo ten ostatni ma albo dym 16-bitowy, albo cienie pikselowate, albo aa się włącza, zaś ten pierwszy filtrowanie szwankuje tu czy tam. Ma to sens? pozdrawiam :)
  9. a Twoja wypowiedź wygląda jak obrażanie mnie, kolegów z redakcji oraz gazety w której pisze. Troche kultury
  10. OC karty jest opisane na pierwszej stronie i karta była testowana w ustawieniach podkręconych :) Ty też nie czytałeś pierwszej strony! :-P Testy w Oblivionie są już od kilku godzin :) Gwarancja wieczysta nie jest ważna do końca produkcji układu. Swego czasu czytałem wypowiedź przedstawiciela firmy Kingston, który jasno określa, że gwarancja wieczysta nie kończy się z chwilą końca produkti układów. Muszę poszukać tego numeru CRN to dopiszę o co dokładnie chodziło. Inna sprawa, jest taka, że po tych dwóch latach wartość tej karty będzie raczej znikoma, więc fakt, że będziemy mieć jeszcze na nią gwarancje nie ma jakiegoś wielkiego znaczenia
  11. Dlaczego nie komentujesz naszych artykułów bzpośrednio pod nimi, a Twoje wypowieedzi musze szukać po całym Internecie? :) A więc co do AA w AOE3 - różnica jest taka, że włączenie trybu "wysoki (high" w uystawieniach gry praktycznie nie wpływa na walory wizualne w przypadku ATi - schodki są nieznacznie mniejsze - daleko im do tego co widać na nVidii - nie interesuje mnie to czy na nVidii jest prawdziwe AA-x4 czy nie prawdziwe - wygląda z punktu widzenia uzytkownika jak AAx4. Nikt tutaj nie będzie się rozwodził na temat tego, że jest to takie a nie inne wygładzanie - schodki znikają w stopniu odpowiednim dla AAx4 - sama metoda nie jest istotna. Nie rozumiem dlaczego mam odpuszczać ATi, skoro w dwóch grach (AOE3 oraz BF2) by włączyć FSAA musze się posiłkować grą i broń Boże włączać wygładzanie z poziomu sterowników, a do tego w AOe3 nie można właczyć w ogóle trybu wyższego niż x2 (choć nawet nie jestem pewien, czy to zasługuje na x2). Co do filtrowania u nVidii - reóznice widać na screenach jak się je przerzuca szybko między sobą - nie powiesz mi, że widać ją gołym okiem w czasie gry. na tej zasadzie to musiałbym wytykać cienie w prawie połowie gier na ATi, szkalować nvidie za cienie w black & white 2 oraz "inną" trawę, pokazywac różnice w doomie jakie to ma kozackie AA mają tam Radeony na nowych sterownikach (przecież skądś wzrost wydajności musiał nadejść). porównywać pixel po pikselu jakość obrazu w call of duty 2, bo pewne niuanse można zobaczyć. Wreszcie musiałbym robić dochodzenie w SCCT czym się rózni SM 3.0 od 2.0, bo różnice widać w dwóch miejscach, gdy spełnimy z 5 warunków i do tego będziemy mieli dwa komputery by móć porównać. Dalej na każdym kroku musiałbym wspominać o tych obleśnych cieniach na ATi w AOE3. Obsmarować ATi za 16-bitowe shadery w riddicku i wiele wiele innych rzeczy... Nie wspomnę o tragicznym soft-shadows na ati w fear oraz tych światłąch przechodzących prze szyby, tragicznych cieniach w bf2 na ati. Mam dalej wymieniać? Tylko po co? Skoro 99% użytkowników tego nie zauważy - zróce na to uwagę ja i Ty i może ze 3 inne osoby, które nie robią nic poza porównywaniem obrazu w grach. Różnice są na tyle marginalne, że nie są warte zainteresowania. Tam gdzie po prostu jest ochydnie to o tym wspominam. Nie widze powodu by kogoś informować o rzeczach, których nie jest w stanie zaobserwować. Fakt, że powiedzmy na jednej karcie anizox6 równa się anizox8 w drugiej jest mało znaczący - wpływ na wydajność tego parametru jest na tyle marginalny ze przełączenie wówczas na anizo-x16 praktycznie nie odbije się na FPSach, a jakość się wyrówna. jeszcze raz: nie piszę o wielu tych rzeczach, gdyż róznice można zaobserwować tylko na screenach i to jeszcze robiąc sobie mini filmik, bo patrząc na zdjęcia obok siebie trudno jest to często zauważyć, a tym bardziej w czasie gry. Cienie, 16-bitowe shadery, zepsute elementy gry czy nei działające aa widać jak na dłoni - dlatego o tym piszę. pozdrawiam :)
  12. bo wydajność przy tym samym taktowaniu byłaby ta sama :) - zresztą sprawdzałem to - nie widziałem w zwiazku z tym powodu by testować i prezentować dokładnie te same wyniki mam na myśli tutaj GF'a 7950 GT, bo 7900 GT praktycznie znika z rynku
  13. dokładnie - jeszcze trzeba brać pod uwagę, że zanim to będzie dostępne to pewnie miesiąc minie :( jakby to wyszło powiedzmy 2 - 3 miesiące temu z taką ceną to wiele by się działo. teoretycznie można 3 razy naprawiać uszkodzony element, później jest wymiana całości - ale dopytam się jak to ma wyglądać dokładnie
  14. Wpadła mi w ręce dość ciekawa karta: Galaxy Masterpiece GF 7900 GT Dual Core 2 x 512 MB. Wymiata! :D Test tego cuda - lecę na żywo, więc dopiero kilka gier :) Pozdrawiam
  15. moja karta ma CHYBA 4 Pixel shadery, ale nie wiem bo to jest GMA900. W mojej wiosce są ze 3 potoki, 1 rzeka i z 5 strumyków :D Sprzęt? Jakiś pentium 4. 3DMarki? nie znam tego ścierwa (nazywam po imieniu), które ma tyle wspólnego z grami co politycy z prawdą. :) Co do karty za 500 złotych - moim zdaniem jeśli kupisz za około 400 - 450 złotych X800 GTO to nie ma się co zastanawiać. Jeśli nie to kupuj Palita 6800 GS 128-bit na NV42.
  16. w call of juarez różnica jest bardzo mała to fakt - trzeba porównywać screeny w hitmanie tych cieni jest po prostu bardzo mało i trudno jest to zobaczyć, ale głównie trzeba oglądać głowę agenta - tam najbardziej to widać.
  17. chodziło o Twoje stwierdzenia typu: Ja jasno wskazywałem, że "mój GTO", czyli ten którego miałem i był taktowany na 550 / 550 jest szybszy od Twojej karty, bo ma wyższe zegary, na co Ty się obuzyłeś, że u Ciebie gra chodzi dobrze, a u mnie nie wskazując tym samym, że twierdzisz, że PRO jest szybsze (zresztą pisałeś jeszcze inne stwierdzenia mające to potwierdzić) - później problemem okazało się Twoje kłamstwo w kwestii "full detali" w NFS. Później napisałem, że są to zasadniczo same karty (w sensie fizycznym) wreszcie uznałeś, że karty są te same. Pisząc, że GTO zjada na śniadanie Twojego pro miałem na myśli MOJEGO GTO i TWOJEGO PRO - ale chyba nie doczytałeś... który to już raz?
  18. przed chwilą twierdziłeś jednak coś innego
  19. cały problem polega na tym, że podobnie cienie źle są wyświetlane w kilku innych grach: Battlefield 2 Cold Fear Call of Juarez NFS MW Hitman zaraz podeślę z Radeona X1600 screeen z NFS oczywiście - problem w tym, że na X800 GTO też można to zrobić.
  20. jak masz NFS to podeslij screna z max detali z samego poczatku trasy - postaraj się o ujęcie z boku auta - tak, żeby było widać jego cień :)
  21. ale rozumiesz co to znacczy "full detale"? Po co okłamujesz ludzi, żę grasz na full detalach? Ty masz chyba jakieś klaplki na oczach - nie widzisz że X800 PRO to jest dokłądnie to samo co X800 GTo, tyle, że ten pierwszy ma DOMYŚLNIE wyższe zegary taktujące przez co oczywistym jest, że będzie szybszy. My mówimy o podkręconych kartach, a wówczas róznica się zaciera - X800 GTO 550 / 550 zjada Twoja kartę na śniadanie i próbuję Ci to powiedziec od dobrych kilku postów. Karty wykorzystują zsadniczo ten sam rdzeń (różnice sprawadzają się do wersji, procesie produkti itp, co nie ma wpływu na wydajność) a więc przy tym samym taktowaniu będą mieć identyczną wydajność - tyle, że Twoja karta raczej nie doskoczy do 550 MHz a rdzeniu.
  22. no to rzeczywiście "full detale" cienie to dość ważny element każdej gry - bez tego jest bez sensu grać. Ale najdziwniejsze w tym wszystkim jest to, że niemalże wszystkie osoby, która uważa, że cienie nie są potrzebne w NFS mają radeony. Ciekawe dlaczego? :lol2: Pewnie dlatego, że cienie na kartach ATi wyglądają tragicznie w tej grze. No ale skoro bez cieni to są max detale, to nie mam więcej pytań ;)
  23. Powiedz mi tylko jedną rzecz - masz właczone cienie w NFS czy nie?
  24. Dyskusja na poziomie zawsze jest dobra - pamiętaj o tym :) A więc tak co do płynności - kurcze trudno jest to wykazać, ale coś Ci opowiem. Kiedyś miałem Athlona 1450 MHz (już nawet nie pamiętam dokładnie na ile był podkręcony) i do tego Kyro 2 (kocham :wub: ;) ) i grałem sobie w colina 2 w 1024 x 768. Oczywiście trzeba było zrobić modyfikację w rejestrze, by słońce wyglądało jak tarcza,. bo inaczej miałem momentami nawet 20 FPS. Ale po tej modyfikacji cały czas miałem 24 - 28 FPS i grałem. Kiedyś uparłem się i ćwiczyłem przez kilkanaście dni (wiem dziwny jestem) jedną trasę we włoszech - bodajze nr 9. I uzyskiwałem jakieś tam czasy, moim zdaniem rewelacyjne. Kumpel pokazał mi swoje, jeżdząc przy tym od święta i co najwazniejsze na automacie, ja na automacie traciłem jeszcze dodatkowe kikla sekund. Tak spię mi głupio zrobiło, że zrezygnowałem i wróciłem do colina prawie rok później, kiedy miałem radka 9500 z athlonem XP. I pomimo iż nie jeździłem tyle czasu to potrzebowałem kilku przejazdów by pobić tamte rekordy. Wiesz dlaczego? bo miałem nie mniej niż 40 FPS. Nie chodzi tutaj tylko o to masz wrażenie płynności, czy go nie masz, ale co ciekawe im mniej klatek masz tym częstrze są sytuacje, że nie załapie Ci klawisza skrętu. Jeździ się zdecydowanie mniej precyzyjnie przy 25 FPS'acy niż przy 40. Spróbuj to zrobić w GTA - tam można ograniczyć ilość FPSów do 25 i weź jakąś super brykę i jeździć po autostradzie i lawiruj między autami - zobaczysz o co chodzi. Tak samo jest w shooterach - przy 25 klatkach nie trafiasz już tak celnie jak przy 50. Dlaczego gracze CSS, czy BF2 wymagają zdeycodowanie więcej niż 25? Tyle, tylko, że większość z nas po prostu nigdy nie widziała super sprzętu w akcji i dlatego nie wie, że można oczekiwać więcej. ja też w NFS"a byłem zadowolony jak miałem te 30. Dziś odczuwam róznicę niezaleznie od grafiki między Athlonem 64 2750 (na takim testuję), a Core 2 Duo od 2,2 GHz wzwyż. Są momenty, w których różnica jest naprawdęe odczuwalna. Tak samo włączając anizo nie byłem w stanie grać na GF'ie 7600 GS w 1024 x 768, musiałem zejść do 800 x 600 i tam juz było oki w NFS MW. Czasy uzyskiwałem gorsze i wyraźnie gorzej jeździłem. Sprawdź to na jakiejś obeznanej trasie, ale zeby to raczej był circuit czy sprint, a nie jakieś inne. I daj sobie przeciwników na high, wyłącz ruch uliczny i postaraj się bić rekordy - później podciągnij rozdzielczość i spróbuj powtorzyc wyczyn :) Co do SM 3.0 na AGP - SM 3.0 to nie HDR - to jest dość często popełniany błąd w rozumowaniu. Owszem czasem jest to powiązane, ale tylko czasem. W Age of Empires III SM 3.0 daje lepszej jakości obraz - możesz z powodzeniem na tej klasie kart grać w 1024 x 768 (7600 GS już trochę się nie wyrabia). Far Cry - użyto SM 3.0 już bardzo dawno, co dało wzrost wydajności - nie powiesz mi, że nie jest to potrzebne :) Painkiller - to samo co Far Cry - większa wydajność przy tym samym sprzęcie scct - wyższa wydajność X3 - wyższa wydajność Jak widzisz SM 3.0 nie wymaga więcej (przeważnie) a daje wzrost wydajności. :) Co do HDR'u z PS 2.0 - masz Obliviona, HL2 i pochodne, scct :) są i gry które wymagają PS 3.0, jak np far cry, aoe 3 czy call of juarez, ale generalnie chodzi o to, że użyto róznych technik, stąd jeden HDR działa na takich, a nie innych kartach. Pozdrawiam :) 30 FPS w NFS nie jest płynne, podobnie jak w doom 3 są miejsca, w których Twoja karta podobnie jak wiele innych zegnie się w pół. Po pierwsze nie moje :) po drugie jest szybsze bo ja mówiłem o karcie 550 / 550, a Ty masz zdecydowanie niższe taktowanie. Ciekawie twierdzisz, że FSAA nic nie daje - jeśli nie widzisz różnicy w jakości obrazu to ja nie mam więcej pytań :) Pozdrawiam
  25. focus_

    Call of Juarez

    a zmieniłeś nazwę na GF 6600? :)
×
×
  • Dodaj nową pozycję...