Skocz do zawartości

solo/ng

Stały użytkownik
  • Postów

    173
  • Dołączył

  • Ostatnia wizyta

Odpowiedzi opublikowane przez solo/ng

  1. WSTEPNE INFO DOTYCZĄCE LEADTEK WINFAST 6600 AGP, które mamy (iCOMP) fizycznie na stanie, tzn. do tych wersji które można kupic u nas w cenie 569 zł:

     

    - pudełko duże, robi wrażenie, praktycznie takie samo jak w przypadku 6800 TDH A400

    - w środku prince of persia 2: warrior within (imho o wiele lepsza niż część pierwsza) oraz splinter cell: PT

    - książeczki, kolorowe insturkcje, dodatkowy soft na plytce ze sterownikami

    - VIVO (tak, to nie żart, nasze maja vivo)

    - pamięci 3.6ns hynix , startowe taktowanie 550 Mhz

     

    Walcze z O/C. Wszyscy którzy wzięli u nas sparklaki z serii, którą mieliśmy (czyli pewne super O/C, 550 Mhz DDR well 2 x 275Mhz na pamięciach) powinni być zadowoleni.

     

    Obecnie zarówno w 6200 JAK I W 6600 są montowane ciut zmienione układy i/lub celowo niedowoltowane i/lub jak pisałem wcześniej - z poprostu odrzutów po 6600GT (słabsze jakościowo). Przez to zamiast >500Mhz O/C osiąga granice 420-480 Mhz. Jak na razie pierszego z brzegu WInfasta ustawiłem na 440/580 Mhz i zostawiam na noc.

    Jutro zdejme cooler i porównam do układu sparkle oraz zobacze czy można z niego wycisnąć tyle co ze sparkle.

     

    Niebawem będziemy mieli kolejną dostawę sparkle - jeżeli dostaniemy to co zamówiliśmy [czyli z serii limitowanej] to znów będzie pewne OC ponad 500Mhz.

     

    Obawiam się, że ten kto nie wierzył w nas;) tzn. w naszą serie może zbyt późno kupić 6600, gdyż powoli zaczynają się już te "gorsze" układy.

     

    Ok ide spać, 3 rano :x, greetz 4 all.

     

    ps. na winfasta z jednej strony nie nałożymy radiatorków - pamięci pokrywa (choć nie styka) radiator od GPU - można to rowziązać - dajemy radiatorki z drugiej strony, a z tej mocujemy sztukując odpowiednie płytki, posmarowane z dwóch stron pastą; choć mało to estetyzcne;

     

    Inna sprawa, że w przypadku tych kart radiatorki na pamięciach praktycznie nic nie dają, możliwości O/C i tak są praktyczine takie same z radiatorami czy bez - nie grzeją się, tylko są niedovoltowane lub poprostu nie wytrzymują technologicznie większych taktowań.

     

    ps2. szykujemy kolejne nowinki - 9550 który gromi obecny revision gecube 9550XT. jutro moge wrzucic szczegóły, jeżeli kogoś to interesuje

  2. Witam tak sobie poczytalem bo dawno mnie nie bylo i moge powiedziec jedno....

    Jako ze pracuje w sklepie komputerowym mam dostep do wiekszosci kart dostepnych na rynku i sytuacja jest nastepujaca:

    Zlozylem sobie testowy zestawik :

    AMD 64 3000 s 939

    2x512 AM1 (Apacer) Cl 2.5

    Gigabyte K8N Nforce 3 250

    Tagan 380

    120 Samsung SATA

    i stestowalem Winfasta 6600 GT i Sapphire 9800 PRO, aha ustawienia fabryczne

    Oczywiscie obie karty na AGP, moje wnioski sa takie 6600 GT ma za waska szyne dostepu do pamieci i to jest jej glowny problem, przynajmniej tak mi sie wydaje. Nie da sie ukryc ze w 3dMarku 2003 bylo 1000 pkt roznicy na kozysc 6600GT

    ale mam wrazenie ze to jakis mega kant.  Praktyczne na kazdym tescie poczawszy od Battle of Proxycon 6600GT mimo ze test pokazywal ze jest wysiwietlane 50-60 klatek to widoczne byly wyrazne zaciecia sie wyswietlanego obrazu czyli klacenie slajdy czy jak kto woli nazywac. A z kolei na 9800 obraz byl plynny. Wlasciciele 6600 napewno odezwa sie teraz ze nie przeinstalowalem sterownikow ale mialem zghostowany system przed instalacja sterow do grafy i kazda karta byla testowana na czystym systemie. Jak dla mnie 9800PRO jest lepsza i na dzis i na jutro. Bo tekstury beda coraz wieksze i w wiekszej rozdzielczosci i niedopatrzenie inzynierow nvidii bedzie sprawiac coraz wiecej klopotow.

    Druga sprawa niech ktos mi powie co za debil projektowal PCB do tych kart (6600GT AGP) przeciez tam nie ma jak nakleic radiatorow na pamieciach nawet. Bez wymyslenia jakiegos podniesionego chlodzenia ala dystanse w Zalmanie ZM80HC/HD mozemy zapomniec o chlodzeniu kosci.

     

    Pozdrawiam Krzysiek

    1255407[/snapback]

    9800Pro nie jest lepsza od 600GT ani na dzis ani na jutro. ma szyne 256bit na pamieciach ? to fajnie, ale 6600GT ma 1Ghz na tej szynie ,a nie 680 jak 9800Pro. 6600 ma ultrashadows2 (widamy w doom3) ktore przyspiesza ta gre i pare innych, ma ps3.0 (witamy w szybszych efektach w nadchodzacyh grach). ma tez wiecej 3dmarkow - sorry ale jaki "1000" roznicy - 6600GT ma na starcie ok. 7800 pkt vs 5900 pkt radeona 9800Pro - ja widze prawie 2000 tys. pkt. ; z GT wycisniemy 9000 (pomijajm wyniki ala 11.000 przez xlabs ; ).

     

    a opinia ,ze 6600GT hacza pomimo iz pisze "50-60fps" to jakies straszenie, zeby jak sie burza to schowac sie do glinianki bo to Pan Bog sie gniewa. Obejrzalem na wlasne oczy dziesiatki, jak nie setki testow 6200/6600/6600GT i wszysko smiga ultraplynnie, bez zadnych zaciec.

  3. przesadziłes, jesli mówisz o czesciach w sklepie 600zł a64 box, plyta ponad 500zł, to juz jest 1100 i za grafe 450, to amsz 1550 :cry:

    1255202[/snapback]

    64bit mozna juz zlozyc za: procek 2800+ A64 BOX 550zl, plyta K8 asrock (bardzo ciekawa plyta, serio:) COMBO - 299zl

     

    plyta posiada slot 754 + sloty pamieci pod to (wiadomo bez duala 754 nie obsluguje tegoz) oraz 939 + dual channel; a to wszystko za 300zl :)

  4. Dla mnie sparkle się nie liczy. Bo kumplowi przyniosło to duzo nerwów. Żebym to dokładnie sprawdził to musze kupić Sparkla i zobaczyć czy szybko wysiądzie.

    1255162[/snapback]

    taa... i spalmy tez wszystich chinczykow, bo jeden zabil polaka. genialny tok myslenia :). dla ludzi na serwisach nie istnieje juz pewnie zadna firma, bo z kazda mieli problemy (wiem o czym mowie ; ). ABIT NF7 ? rowniez z tymi plytami potrafilyby seryjne problemy. A o grafikach nie pisze, bo "psuja" sie tak zadko, ze nawet nie ma o czym dyskutowac.

  5. Co z tego że podkręcisz do 550/650 czy tam ile i pojedziesz na tym miesiąc dwa?? A później wizyta w serwisie albo na poczcie aby wysłać karte do sklepu www?? Po co komu to??

    1255090[/snapback]

    aby pisac takie herezje poczytaj najpierw z czego zbudowane jest 6600 i GT, a potem rozpoczynaj swoja anty krucjate. bo na rzeczy to sie w ogole nie znasz.

     

    a co do sparkle - swietna firma, niedrogie karty, bez zbednych bajerow, ktore "sa gratis" aka placimy za nie my. to ze 3 x pod rzad wywalila m isie plyta gigabyte (za kazdym razem ni ebylo dzwieku) implikuje fakt, ze ta firma jest do bani ? oddzialy w calej europie i na swiecie, pronox od lat ich dystyrbuuje i jest zadowolony, gdyz malo reklamacji. radze zaczerpnac fachowej wiedzy u zrodla a nie pierniczyc niczym pokemon.

     

    w ogole klasyczne plecenie 3 po 3 "ja nie mialem doswiadczenia ale pan Marian powiedizal, ze Jurek z Owiesna slyszal, ze tomkowi z Pabianic padla karta". n/c

  6. cwila bo czegos tu nie rozumiem, niektórzy pisza ze rdzen w 6600 kreci im sie na 550MHz, czyli przekrecają rdzen prawie  o dwa razy tyle co jest standardowo(300MHz)??????

    1254537[/snapback]

    dokladnie :). przeciez to te same procesory, nawet z tym samym napieciem; tak samo bylo z 9550/9600/9600Pro.

     

    Generalnie to jest tak:

    producent (ati,nvidia,xabre , sis itp) robi serie danego procesora - np. 6600.

    Te , ktore maja lepsza jakosc i bankowo dzialaja w wyzszych czest. - ida jako GT.

    te "gorsze" - jako 6600 - ale w szczegolnosci na poczatku "produkcji" - duza zcesc 6600 ma

    100% procki jak 6600GT (jakosciowo), dopiero im dalej tym wiecej slabszych procesorow,

    ktore i tak w zdecydowanej wiekszosci dzialaja bez problemow jako GT.

     

    tak samo mamy z pamieciami, procesorami CPU itp.

  7. Apropo tego PS.30 - wiesz focus, bill gates tez kiedys powiedial, ze 640kb kazdemu wystarczy.. naprawde NIE DA SIE, wszystkiego napisac cialge na tym samym - inaczej do dzis gralibysmy na atari i kommodora bo przeciez to tez komputery, maja procesory i uklady graficzne, dlaczegoz i na tym nie napisac dooma3.

     

    PS3.0 zmieni wiele w grach - beda wyczesane sceny 3D (popatrze na filmiki z unreala3), wyczesane modele coraz bardziej przypominajace realne, genialne enviromenty i swiatla.

     

    na 386 / 33 Mhz potrafilbym napisac praktycine KAZDY (!) efekt istniejacy w obecnych grach z riddickami, doomami3 czy nadchodzacym Unreal3 engine wlacznie. Ale - jak szybko by to dzialalo ? o_O.

     

    greetz, thx za ciekawa dyskusje.

  8. Sprawdzil;es na innym zasilaczu ? Twoja plyta ma zasilanie dodatkowe oprocz standardowego (czyli dod. mala wtyczke?). Swego czasu znajomy kupic PowerColor 9500 i mial z nia problemy - smieic na ekranie, zwisy, poszedl do kolegi podlaczyl i bylo OK. zamienil sie wiec z nim na zasilacze i wszyscy byli happy.

  9. Witam

     

    Tak tyle tylko, że te 96 obsługuje Radeon 9800, zaś X700 oraz X800 obsłgujują już 512 instrukcji co już jest dużo większą ilością i trudno jest sobie wyobrazić by była konieczność użycia jeszcze większej ilości instrukcji, choć wszystko można :D

    Trzeba też pamiętać, że podobnie jak niektóre efekty będą działać szybciej dzięki temu, że będą napisane za pomocą PS 3.0 tak samo inne (też niektóre) będą działać wolniej. Nie jestem programistą ale pokazuje to Shader Mark

    I teraz pytanie czy mówiąc PS 2.0 masz na myśli ten zawarty w Radku 9700 czy ten zawarty w Radku X800, bo to dość istotne.

     

    Musisz też przyznać, że za pomocą PS 3.0 nie otrzymamy żadnego nowego efektu, o co mnie w domyśle chodziło.

     

    Aczkolwiek wiem, że dla programisty pisanie w PS3.0 to kolosalna różnica oczywiście na plus :)

     

    Pozdrawiam

    1236465[/snapback]

    Tak ati zrobilo takie ps2.0e, jednak to dalej nie to samo.

     

    Niestety nie przyznam racji ;-) tzn .w kwestii "Musisz też przyznać, że za pomocą PS 3.0 nie otrzymamy żadnego nowego efektu, o co mnie w domyśle chodziło.".

     

    Otoz

     

    Co wiecej w PS3.0 mamy juz petle, co pozwala na tworzenie jeszcze bardziej skomplikowanych efektow. O ile teraz tego w grach nie widac (bo niby jak, skoro pracowano nad enginami ps1.1 i ps2.0), tak z czasem (chocby unreal3, ktory i tak nie wykorzystuje sily ps3.0) bedzie to widoczne i to dosc znacznie.

     

    Niektore redakcje roznych stron pisaly ze PS3.0 to sciema, marketing itp. Byc moze takie tez texty szly oficjalnie od producentow/programistow, ktorzy juz sporo zainwestowali w ps2.0. Jednakze PS3.0 naprawde pozwala rozwinac skrzydla.

     

    bo robienie skomplikowanego efektu bez petli, z multipassingiem (polaczenie malych shaderow w duzego) kosztuje karte czas, a dodatkowe odwolania do API rowniez spowalniaja caly efekt.

     

    Vertex Shader 3.0 tez wnosi sporo - ma juz samplowanie textury, co pozwala np. przesunac sobie wierzcholek o wartosc przeczytana z textury.

    Przyklad roznicy VS2.0 i VS3.0 widoczny golym ogiem (tego juz nie da sie zrobic na 2.0):

    http://developer.nvidia.com/object/using_v...x_textures.html

     

    Dzieki temu mamy PRAWDZIWE wypuklosci, nie zadne fejkowane na bumpach 2D.

     

    Prawdziwy, genialny displacement mapping to rowniez tylko ps3.0 - ponad 200 isturnkcji assemblera PS3.0 i nie da sie zrobic go w PS2.0, jedynie uproszczona wersje w ok. 30 instrukcjach. MOZE udaloby sie jakos wyczarowac go w PS2.0 ale to bylaby jakas masakra w kodowaniu , nie ma szans i tyle ;). Wszystko wyjdzie w grach pokroju Unreal3 i naszym engine ; ).

     

    PS3.0 jest swietny... tylko jeszcze nie wykorzystywany wlasciwie.

     

    Jak to dobrze powiedzal kolegaz grupy - Laoo :

    oczywiscie zawsze znajdzie sie jakis zapaleniec ktory udowodni ze da sie na ps2.0 z multiprzebiegami zrobic wszystko

    wystarczy wyrenderowac cos do textury na koncu przebiegu i na poczatku nastepnego przecytac to i liczyc dalej

    takie przekazanie parametrow a mozemy miac nawet 4 rendertargety czyli mozemy przekazac 16 danych

    czyli rozbijajac na takie przebiegi spokojnie sie da tylko ze gdzie tu sens i logika

    to bedzie takie koszmarnie wolne ze ja <span style="color:red;">[ciach!]</span>le :>

     

    przeciez na zwyklym procesorze bez 3D mozna zrobic rowniez kazdy efekt. nie wazne ze bedzie mial 0.00000000000001 FPS. Da sie ; ).

     

    Z reszta sie zgodze ; ). Mam nadzieje, ze nie pisalem 'ofensywnie', nie taki byl zamiar:). Od lat bylem fanem Radeonow (3 generacje) a teraz mam GF :). I jak mialbym kupi ckarte na dluzej to kupilbym z PS 3.0 a nie ps2.0 / ps2.0e.

     

    Pozdrawiam i czekam na recke 6200 : -).

  10. Karty AGPx8 zadzialaja na plytach agpx4 i agpx8.

     

    nie radz eprobowac wkladac kart agpx8 do plyt agpx2 max - roznica napiec moze spalic karte.

     

    generalnie: plyta z agpx2 max - karta z agpx4 max (gdyz ma tez agpx2)

    plyta z agpx4 max - karta z agpx8 max ( ; o ).

     

    co do tej karty to poprostu lul - wersja 64 bit ,za 229zl ma sie xpower 9550 128 mb / 128 bit:

     

    troch enie halo sprzedawac taka karte,ktos kupi byc moze nie wiedzac ze w/w asus jest 40% wolniejszy niz (tanszy, heh) inn y9550 ale z szyna 128 bit.

     

    http://www.allegro.pl/show_item.php?item=40420908

  11. No i gość ma głowę do marketingu ostro wciska Pixel Shadera w wersji 3.0, któy nic nie daje, pozatym, że sie tak nazywa. :)

    1234760[/snapback]

    Daje daje.

     

    W PS2.0 masz 96 instrukcji na shadera, w PS3.0 masz 65536 (i unlimited w takim 6800Ultra).

    O ile teraz to "nic ine daje" tak kazda nowsza gra moze juz "dawac". Gdyz zaczna pojawiac sie skomplikowane

    efekty, dla ktorych te 96 instrukcji nie wystarczy. A multipassing shaderow (np. 4 x shader 96 instrukcji = 1 wiekszy shader), jaki mozna stosowac (maja np. radki 9800) jest uciazliwy. Bedzie tez szybciej dzieki PS3.0 (te same efekty na PS3.0 dzialaja szybciej) i o to glownie chodzilo w PS3.0.

     

    ps. znajomi pisza engine, maja juz sporo, na poziomie Unreal3 i nie wyobrazam sobie aby nie uzyli szybkosci PS3.0 - byloby to marnotractwo, przy PS2.0 niektore efekty dzialalyby zbyt wolno

     

    a w ogole niebawem strona projektu, filmiki i info nt gry RPG, ktora powstaje na tym silniku : o.

     

    pozdrawiam.

  12. :idea: LEADTEK A400 6800NU 128 MB DDR 256 BIT (1219zl, tutaj)

    :idea: 12p/5v 325Mhz/700Mhz -> 16p/6v 370Mhz/850Mhz (to nie jest ostatnie słowo)

    :idea: jakie zostalo zastosowane chlodzenie (GPU, MEM)

    :idea: ot, ati catalyst najnowsze, troszke zmodyfikwoane ustawienia przeze mnie

    :idea: swietna karta, cichutka, dobre chłodzenie

    :idea: 2003: 10567 pkt. Walka o 11k. 8000 pkt przed podkręcaniem i modowaniem.

  13. ADIK przesadzasz. bardzo zadko "zle zgrane podzespoly" powowuja, ze majac 2 takie same (ale np. innych firm, inna plyta) podzespoly, beda rozne wydajnosci; i to az tak duze; wtedy skladanie pecetow byloby magia pt. szukamy najlepiej pasujacyh elementow, kto znajdzie lepsza kombinacje jest guru i zarabia miliony. bzdurka ; ).

     

    nie wierze, ze na w/w ~identycznych komputerach u jednego ta gra smiga w 1024x768@32 u drugiego ledwi e800x600?@32;

     

    bardziej to wynika z konfiguracji (wystarczy, ze jeden wlaczy cienie, drugi nie ,i wydajnosc diametralnie inna).

     

    sprzet sprzetowi m/w rowny.

     

    a co do 3DMarkow - sa bardzo przydante, ale jak sie patrzy na liczbe FPS w danych testach i porownuje do liczby FPS innej karty graficznej, a nie na koncowy wyniki; wtedy jak na dloni widzimy szybkosc T&L DX7, szybkosc shaderow 1.1 i 2.2 (dx8 i dx9) i mzoemy ocenic co wybrac. Niektore karty (np. 9200) dostaja 0 za dane testy (DX9), majac 'falszywie' nizsze i wolniejsze wyniki. np. 9200 w 3dmarku 2003 ma ~1000 pkt, GF5200 ma 1200pkt, a 9200 zarowno w DX7 jak i DX8 jest szybszy,

  14. gf2 128 bit bedzie szybsze od 4mx 440 64 bit i to jeszcze pewnie z taktami 250/333

    1212206[/snapback]

     

    nie zartuj. jedynie gf2 titanitum / 128 bit jest porownywalne do gf4mx 128 bit;

     

    gf2mx 128 bit jest wolniejsze od gf4mx 64 bit, szczegolniej w nizszych rozdzialkach jeszcze wieksza roznica.

     

    a pytanko - a masz zainstalowane sterowniki do grafiki nVIDII (itp) czy te "windosowskie" ?

    bo te, ktore laduje winda, w 3D sa tak wolne (wrecz jakby nie uzywaly HALa), ze koniec swiata.

     

    napisz cos wiecej.

  15. Jezeli nie flashowales biosu, to gwarancje powinni Ci przyjac bez problemu.

    Inna sprawa - jestes pewny ze to pamiec na karcie grafiki a nie pamiec systemowa ?

    bo na "pulpicie" to karta korzysta ledwie z kilku MB (4/8?), wiec

    byc moze to nie jest wina pamieci na karcie graficznej.

     

    Sprawdzales u kogos ta karte i/lub inny ram u siebie ?

  16. ja mam geforce 6800 @ 16/6 i wszystko mi misga zawzse ultra plynnie na high, 1024X768 itp.

     

    normalne jest ze w kazdej grze w jakims np. pomieszczeniu mozna miec i 100fps, a np. na zewnatrz 20 fps, to chyba oczywiste, bo obliczen jest nieporownywalnie wiecej.

     

    gry na 6600GT smigaja, ciezko powiedziec dlaczego Tobie nie.

     

    najzabawniejsze, ze niektore serwisy robily testy i ta sama karta na AGP miala wiecej FPS niz na PCI-e przy ~tym samym procku.

  17. szczerze mowiac bardzo mnie ciekawi jak to sie rozwiaze, mamy podobny komputer - u nas 5h dziala OK, klient bierz do siebie momentalnie 5 minut i reset/zwis; az przyszedl do nas do sklepu,. byl kilka h na serwisie, "bawil si enim"; wsio OK. wzial do siebie i resety; sprawdzal napiecia w giaznach, mial listwe i nic. po wszelkich bojach skladamy mu drugi identyczny komputer (nie ma szans dojsc co jest grane, skoro u nas 100% ok o_O).

     

    popros w sklepie aby zrobili podobnie ?

  18. @czr_r1  " 3.Dlaczego w need for speed u2 przy wyzszych detalach troche sie tnie i obraz sie robi ciemny ??"

     

    Jak w NFS: U2 wybierzesz opcje graficzne na max tym suwakiem, to automatycznie wlacza ci sie antyalasing, oraz wszystkie efekty na on, wiec radze przesunac suwak na max, a potem wejsc do opcji graficznych advanced samemu i wylaczyc antyalasing (przez co ci gra tak bardzo zwalnia) i poszukac jeszcze opcji enhanced contrast, i tez ja wylaczyc, bo jak jest wlaczana to gra robi sie strasznie ciemna. A co do plynnosci gry w 1024x768 to owszem jest plynnie, ale jak bedzie wiecej samochodow na starcie i wszyscy rusza z piskiem opon, zrobi sie pelno dymu, to niestety gra tez potrafi zwolnic do 15 fps, jak nie wiezycie to proponue zbadac ilosc klatek frapsem, a sami zobaczycie ze nie zawsze jest trzymane te 25 klatek.

    NFS:U2 ma blad i/lub sterowniki ATI - ktory tak sie objawia na ati. sciagnij najnowsze sterowniki z ati.com, ktore to poprawiaja i nawet a antyaliasami wsio jest ok.

  19. Witam

    Mam problem z Radkiem 9550 od Xpert Vision problem tkwi w tym że niemoge przekroczyć bariery GPU

    powyżej 390 bo karta jest resetowana, biosa też niemoge zmienić bo ponoć ta karta ma jakieś zabezpieczenia, pamięć idzie na 540 bez artów

    Prosze o pomoc

    Pozdrawiam

    dorzuc cooler na radiator, bo xpervisiony maja same radiatory na GPU, stad tak mala moc O/C bez wiatraczka.

×
×
  • Dodaj nową pozycję...