Skocz do zawartości

Sodom

Użytkownik
  • Postów

    5
  • Dołączył

  • Ostatnia wizyta

Treść opublikowana przez Sodom

  1. Sodom

    ATI Radeon R520

    LOL, a gdzies Ty to wyczytal, ze Angole wykupili ATI ?? :blink: :blink: Kolejny raz zostales przylapany na tym, ze nie rozumiesz co ludzie pisza :wink: Pozdro !!
  2. Sodom

    ATI Radeon R520

    Witam :) Niestety, ale nie zrozumiales o co chodzi w tym tescie. To co napisales nijak ma sie do mojego posta :wink: Nie bede tlumaczyl "co i jak", gdyz dla wiekszosci userow forum Tweak jest to zbedne. Poza tym dlugosc tego posta bylaby cholernie dluga. Info na temat architektur obu kart, jak to wszystko dziala, mozna bez problemu znalezc w sieci, wiec troche wysilku nie zaszkodzi :D Podany przeze mnie link pokazuje wydajnosc samych jednostek pixel shader !! I widac, ze pomimo tej spornej kwestii niezgodnosci ze specyfikacja ps 3.0, do czego sie przyczepiliscie i zbulwersowaliscie, shadery w gf dzialaja efektywniej !! Ot cala filozofia tego testu. Na ostateczna wydajnosc w grach ( czyli to, o czym Ty pisales ) ma wplyw o wiele wiecej czynnikow, niz sama wydajnosc jednostek ps. Tyle z mojej strony. Pozdrawiam !!
  3. Sodom

    ATI Radeon R520

    Panowie, dramatyzujecie bardzo :wink: i nadajecie tej sytuacji charakter jakiejs zbrodni :lol: Po pierwsze, tutaj macie LINK, ktory przedstawia wydajnosc pixel shader m.in. na gf 7800 gtx, rx1800xt i to jak shadery w gf "nie bardzo dzialaja" :wink: Jesli chodzi o vertexy to niewatpliwie radki sa wydajniejsze. A jeszcze co do radeonow, to przy okazji pojawienia sie info na temat ps 3.0 w nv, wyszlo na jaw, ze seria kart X1800 od ATI nie przechodzi wszystkich testów Vertex Shader 3.0. Czy to jest powod, ktory moze skreslic te karty wsrod uzytkownikow?? Cofajac sie do kart poprzedniej generacji, okazalo sie tez, ze seria x800 nie przechodzi wszystkich testow zgodnosci z ps 2.0 !!!!!! Czy w tej sytuacji, jak napisal chase1, powinniscie byc konsekwentni i odeslac swoje radeony do ATI, po czym kupic gf ?? :wink: No bez przesady :wink: Jakos ta niezgodnosc z ps 2.0 nie zwolnila mojego radka w grach :wink: Po drugie, i to juz na zakonczenie, pomijajac te wyzej opisane niezgodnosci w obu koncernach, jesli faktycznie by to odbiegalo od wytycznych i wazylo na wydajnosci, to Microsoft nigdy w zyciu nie wydalby certyfikatu zgodności, jak i zezwolenia na posługiwanie się specyfikacjami !!!!!!!!!!! A tak to posiadaja go obie firmy, wiec o co panowie robicie caly dym ???????? :unsure:
  4. Witam !! To moj pierwszy post. Postanowilem co nieco dolozyc od siebie w tym watku. Chemiczny Ali i Buu --> po Waszych wypowiedziach widac, ze sami niewiele wiecie o nowych technologiach, wiec te uwagi sa nie na miejscu!!Sam nie wiem duzo, ale wystarczy troche poszukac, zeby wiedziec "co, jak, dlaczego". Czytalem taki artykul, w ktorym napisane bylo, ze The Chronicles of Riddick nie wykorzystuje akurat sm 3.0!! 2.0++ to nie jest 3.0 !! Chyba jedyna roznica miedzy trybem 2.0 a 2.0++ sa cienie. W przypadku opcji 2.0++ wystepujace w tej grze cienie sa generowane w rodzielczosci 4 razy wyzszej niz ustawiona, np. jak grasz w rozdz. 1024... to cienie beda generowane w rozdz. 4096...Jak wiadomo tryb ten jest zarezerwowany tylko dla gf 6xxx, poniewaz w tym przypadku gfom pomaga technologia ultrashadow II, chociaz i tak na wiele sie to nie zdaje, bo gra strasznie w tym trybie muli nawet na topowych kartach ( nie wiadomo czy z winy sterow czy tez z niedopracowania gry ). Widzicie, na gfach chodzi jako tako, a na Radeonach tego trybu nie ma bo pewnie nie uciagnelyby tej gry w tym trybie :-P ( bron Boze, nie demonizuje kart ATI !! ) Malo tego, we wszystkich aktualnych grach wykorzystujacych sm 3.0 ( choc jest ich bardzo malo ) zanotowano wzrost wydajnosci a nie spadek !! A co do watku, to lepszy bedzie radeon 9800@pro i basta. To tyle z mojej strony. Dalsze wojny w tym temacie sa bezsensowne.EOT Pozdro!
×
×
  • Dodaj nową pozycję...