sucker Opublikowano 7 Grudnia 2005 Zgłoś Opublikowano 7 Grudnia 2005 nie pisz glupot - to co wyswietla riva czy inna karta w trybie Dx to beporownywalna kaszana w stosunku do Glide nie dotyczy to trybu S3TC ktory obslugiwal tylko S3 Savage proponuje porownac sobie UT na Voodoo3 ,Savage4 i calym pozostalym sfufie w Dx czy Ogl wyglad jest nieporownywalny ,a troche kart przemielilem : rivaTNT,TNT2 m64 ,kyro,geforce2mx, rage pro ,radeony co ciekawe to jedyna gra w ktorej wykorzystano pelny S3TC i Savage4 dawal najladniejszy obraz i wydajnoscia dorownywal voodoo3 <_< cala resta stawki w tyle Ze co ;) Co to jest S3TC wytlumaczyl Ci juz ChomiK. Co do Savage to pod wzgledem wydajnosci uklad slabszy od V2 i Rivy TNT(nawet nie 2 ;P). Do tego dochodza sterowniki, ktore sa pieta achillesowa tej karty. W tamtym okresie nie tylko ze na kartach S3 grafika miala przeklamania to do tego gry potrafily zacinac sie w naglych momentach i wtedy tlko restarcik. Stery do tej karty byly okropne. Do tego dochodzi brak Twin Texel. Co do jakosci to nie wiem skad to wytargales ;) Zagraj sobie w Unreala(pierwsza czesc) na glide i na OGL/DX i bedziesz wiedzial jaka karta generuje najlepszy obraz. Unreal najelpiej wyglda na kartach 3dfx'a i nie ma co dyskutowac. Wiem bo gralem w Unreala w DX/OGL i w Glide na kartach 3dfx'a i najelpiej Unreal wyglada na kartach 3dfx'a. Potem S3 wydalo poprawionego Savage4 ale stery znowu daly o sobie znac. Karta nie podpila swiata mimo ze na papierze wygladala calkiem, calkiem. To samo bylo z Savage 2000. Znowu sterowniki spowodowaly ze karta technicznie bardzo dobra(i nowoczesna jak na swoje czasy T&L spzretowy) okazala sie klapa. PS S3TC powoduje pogorszenie jakosci obrazu. Niewiele i czesto niezauwazalne ale powoduje. Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
cmsydney Opublikowano 7 Grudnia 2005 Zgłoś Opublikowano 7 Grudnia 2005 dodam ze na voodoo5 unreal (ut rowniez) z AAx4 wyglada o wiele lepiej niz na x700 z AA (moja karta) oraz 6600gt z AA (qmpla karta) co do s3tc to tak, jakos jest zauwazalnie gorsza, najlepsza jakosciowo kompresja to fxt1 Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
ChomiK Opublikowano 7 Grudnia 2005 Zgłoś Opublikowano 7 Grudnia 2005 (edytowane) S3TC powoduje pogorszenie jakosci obrazu. Niewiele i czesto niezauwazalne ale powoduje. No bo to przecie kompresja - kazda kompresja na tym polega niestety ze cos sie "wycina" dla zmniejszenia rozmiaroow. To samo tyczy sie Mp3 przecie... co do s3tc to tak, jakos jest zauwazalnie gorsza, najlepsza jakosciowo kompresja to fxt1 No tu sie znowu nie zgodze - jesli chodzi o stopien kompresji to rzeczywiscie fxt1 jest najskuteczniejsza ale za to wlasnie KOSZTEM jakosci ... S3TC [jak zreszta fxt1] zaimplementowana jest we wszystkich popularnie produkowanych ukladach graficznych i oferuje najlepsza jak dotad jakosc w stosunku do stopnia kompresji. To co napisales dowodzi jeszcze jednego. Skoro błednie stwierdziles ze jakosc przy S3TC jest gorsza, znaczy ze a to tylko Twoje subiektywne odczucia bo rzeczywistosc jest zupelnie inna - to wlasnie S3TC ma przewage nad fxt1 pod wzgledem jakosci...co mozecie dokladnie obadac pod tym adresem Pozdro dla wszystkich... Edytowane 7 Grudnia 2005 przez ChomiK Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
KGB Opublikowano 7 Grudnia 2005 Zgłoś Opublikowano 7 Grudnia 2005 (edytowane) o czym wy mowicie Chomik chcial dobrze i prawie dobrze napisal S3TC to natywny sposob kompresji tekstur S3 pozniej niby wykorzystalo to i ATI i NV ,ale nie w takim stopniu jak pierwowzor (NV wyswietlala tekstury 64mb przy pomocy teksturowania agp ,a savage4 przy wykorzystaniu pamieci karty -WIEM co pisze ,bo mialem plyte ktora za ch.. NIE CHCIALA TEXTUROWAC przez AGP) sucker S3TC nie powodowalo pogorszenia jakosci tekstur -moze minimalne ,ale niezauwazalne po co odpalac UNREALa ,lepiej UT (UnrealTornament) ktory ma natywna obsluge Glide dla Voodoo3 i pelne wykorzystanie programowe S3TC dla Savage4 -chyba jedyna gra tam doskonale widac ze Savage 4 daje najlepszy obraz i jest tak szybkie jak Voodoo3 (co do zegara - rowniez jedyna gra) w innych grach Savage4 mial problem by obronic sie przed rivaTNT na w UT rozwalal pelna riveTNT2 dajac lepszy obraz nie twierdze ze S3 mialo dobre stery ,bo mialo tragiczne ,ale widac jaki potencjal mialy te uklady przy dobrze napisanym programie voodoo3 za to mialo swietne stery i przy swojej natywnej kompresji (brak texturingu) respekt dal nich za to co potrafili zrobic przy 16mb pamieci i 22-bit kolor wewnetrzyny Edytowane 7 Grudnia 2005 przez KGB Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
ChomiK Opublikowano 7 Grudnia 2005 Zgłoś Opublikowano 7 Grudnia 2005 (edytowane) Rzeczywiscie KGB masz racje - savage4 uzywa pamieci karty - co nie zmienia idei S3TC - jest caly czas wykorzystywana... Odnosnie 22bit koloru w voodoo3: 3dfx ogłosil ze ich karta renderuje wewnetrznie w 32bitach ale na wyjsciu daje 16 - 3dfx poroownalo to do renderingu 22bitowego. W rzeczywistosci jakosc obrazu generowanego przez TNT2 wtedy, byla lepsza juz w 16bitach. Podobnie z teksturami - 3dfx zatrzymal sie na etapie z przed 2 lat - max wielkosc textury 256x256...Dodatkowo dochodzi AGP, ktoore zaimplementowano w voodoo3 tylko po to zeby uzytkownicy "nowszych" wtedy plyt mogli wpiac ta karte - niestety nikt nie wykorzystał potencjału w rzeczywistosci [no wlasnie brak teksturowania przez AGP] - AGP dla voodoo3 to raczej cos w rodzaju wewnetrznej przejscioofki z PCI na AGP...nic wiecej.... pozdro... PS:Sie maly OffTopic zrobil ... ;] Edytowane 7 Grudnia 2005 przez ChomiK Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Lumperator Opublikowano 7 Grudnia 2005 Zgłoś Opublikowano 7 Grudnia 2005 (edytowane) nie pisz glupot - to co wyswietla riva czy inna karta w trybie Dx to beporownywalna kaszana w stosunku do Glide nie dotyczy to trybu S3TC ktory obslugiwal tylko S3 Savage proponuje porownac sobie UT na Voodoo3 Unreal Tournament był jedną z niewielu gier, które obsługiwały na przełomie 1999 i 2000 roku API 3dfxa. Ty mi mówisz o Voodoo 3 z 16bitowym kolorem, a każdy myślący człowiek wybrałby TNT z 32 bitową paletą. A przecież inaczej nie było. Mało znana NVIDIA zaczęła kopac dołek pod 3dfxem juz za czasów pierwszej TNT ! Miałem u siebie VoodooRush, później przez króki czas Voodoo Banshee. To prawda, że Unreal i UT wyglądały na kartach 3Dfxa świetnie. Przełączajac się w tryb D3D odrazu znikała szczegółowośc tekstur, wszystko stawało sie takie nijakie. Ale analogicznie mogę powiedziec o Quake III, który na TNT2 wyglądał po prostu pięknie! NVIDIA była tak bezlitosna wobec 3dfxa jak Creative wobec Aureala. Jednak Creative w najnowszych kartach przywrócił pozycjonowanie dźwięku znane z serii kart Vortex. O Glide w wydaniu NVIDII mozemy jednak pomarzyć ^_- Edytowane 7 Grudnia 2005 przez Lumperator Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
cmsydney Opublikowano 7 Grudnia 2005 Zgłoś Opublikowano 7 Grudnia 2005 Rzeczywiscie KGB masz racje - savage4 uzywa pamieci karty - co nie zmienia idei S3TC - jest caly czas wykorzystywana... Odnosnie 22bit koloru w voodoo3: 3dfx ogłosil ze ich karta renderuje wewnetrznie w 32bitach ale na wyjsciu daje 16 - 3dfx poroownalo to do renderingu 22bitowego. W rzeczywistosci jakosc obrazu generowanego przez TNT2 wtedy, byla lepsza juz w 16bitach. Podobnie z teksturami - 3dfx zatrzymal sie na etapie z przed 2 lat - max wielkosc textury 256x256...Dodatkowo dochodzi AGP, ktoore zaimplementowano w voodoo3 tylko po to zeby uzytkownicy "nowszych" wtedy plyt mogli wpiac ta karte - niestety nikt nie wykorzystał potencjału w rzeczywistosci [no wlasnie brak teksturowania przez AGP] - AGP dla voodoo3 to raczej cos w rodzaju wewnetrznej przejscioofki z PCI na AGP...nic wiecej.... i tu sie nie zgodze prawda jest taka ze 3dfx mial gowniana polityke firmy ale nvidia chciala jeszcze na sile go zniszczyc, udalo sie a wszystko przez dobry marketing glownie poszlo o 32bity a prawda jest taka ze programista ktory napisze dobrze gre to bedzie wygladala jak na 32bit, czy za czasow voodoo ktos psioczyl na przejscia kolorow? nie, bo ich nie bylo, niestety pozniej programisci sie rozleniwili i tak wyszlo. 3dfx wiedzial ze nie ma to znaczenia ale rynek go przerosl Ale analogicznie mogę powiedziec o Quake III, który na TNT2 wyglądał po prostu pięknie! i znowu nieprawda, porownujac teraz q3 na radeonie x700 i voodoo5 nie ma zadnej roznicy!!!!!!! Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość MD0 Opublikowano 7 Grudnia 2005 Zgłoś Opublikowano 7 Grudnia 2005 MD0 - AGP Pro = dostarczanie większego napięcia. Nie am to nic wspólnego z przepustowością, która w AGP4x jest teoretycznie dukrotnie większa (tak jak w teorii AGP8x ma dwukrotną przewagę nad AGP4x - a jak jest, każdy wie ^^). Gry na Voodoo (obsługa Glide) wyglądały lepiej niż u konkurencji (do czasu Rivy TNT 16MB). Później 3dfx zaczął się lekko kaszanić :\ Ej jeśli chodzi ci o to, że AGP Pro = AGP 2x + dostarczanie większego napięcia, to jesteś w błędzie, bo AGP Pro = AGP 4x + dostarczanie większego napięcia wiem bo pamiętam te czasy, na dowód tego zapodaje linka http://www.macosx.com/articles/Expansion-C...Part-2-AGP.html moze zacytuje bo troche tego tam jest: "Another specification for AGP was released between 2.0 and 3.0, and was referred to as AGP Pro." :wink: Pozdrawiam Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
sucker Opublikowano 7 Grudnia 2005 Zgłoś Opublikowano 7 Grudnia 2005 i znowu nieprawda, porownujac teraz q3 na radeonie x700 i voodoo5 nie ma zadnej roznicy!!!!!!! Tylko wydaje mi sie ze Lumperator mowi o Q3 na Rivie TNT2 i V2/3 ktore nie obsluguja 32bit'owej palety, tekstor wieskszych od 256x256. V5 w/g mnie to byla naprawde swietna karta. T&L podobnie jak na poczatku 32bit'y byl tylko chwytem marketingowym. Dzisiaj jakos nowe karty nie maja jednostki T&L ;). V5 mialo ogromna przewage nad Geforcami a mianowicie jakosc obrazu. Jakosc FSAA na V5 w/g mnie nawet dzisiaj mozna nazwac bardzo dobra. 3dfx postawil wtedy na poprawianie obrazu czyli lansowanie FSAA podczas gdy nVidia postawila na nowa technologie czyli T&L. nVidia lepiej wyczula koninkture. FSAA jak na tamte czasy byl za bardzo meczacy dla karty ale V5 nawet dawala sobie z nim rade :) Do tego w V5 3dfx w koncu wprowadzil wieksze tekstury a nie ograniczone do 256x256 jak to bylo w poprzednikach. To w/g mnie byla glowna wada V3 a nie paleta kolorow. Wlaczalem pare gier w 32 i 16bitach i nie potrailem znalezc roznic. Mialem V2, V3(nadal mam) Rive TNT2 i musze powiedziec ze na ziemie powalila mnie V2 i V3. V2 jakoscia grafiki po odpaleniu Unreala a V3 ta sama grafa tylko ze znacznie lepszym framerate :). Pamietam jak pierwszy raz uruchomilem Unreala na V2 i ofrazu dalem rozdzilke 800x600(max dla jednej karty). Gra chodzila plynnie, bez zwolnien a grafa POWALALA. Softwareowy Unreal w/g mnie bardzo duzo traci mimo ze zawsze mowie ze miod jest wazniejszy od grafiki ale tutaj grafa bardzo duzo pomaga grze, szczegolnie jakosc tekstor. Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
ChomiK Opublikowano 7 Grudnia 2005 Zgłoś Opublikowano 7 Grudnia 2005 CMSYDNEY: i tu sie nie zgodzeHyhy - chyba nie chcesh sie pogodzic z rzeczywistoscia - tak po prostu jest - rozejrzyj sie po sieci i poszukaj...;] CMSYDNEY: prawda jest taka ze 3dfx mial gowniana polityke firmyTo akurat prawda ;] CMSYDNEY: glownie poszlo o 32bity a prawda jest taka ze programista ktory napisze dobrze gre to bedzie wygladala jak na 32bit, czy za czasow voodoo ktos psioczyl na przejscia kolorow? nie, bo ich nie bylo, niestety pozniej programisci sie rozleniwili i tak wyszlo. 3dfx wiedzial ze nie ma to znaczenia ale rynek go przeroslHahaha - pozostawie bez komentarza !!! ;] W sumie to sie sobie nawet dziwie ze odpowiadam na tego posta...;] ------------------------------------------------------------------------------------- SUCKER - odnosze dziwne wrazenie ze twoj post w 95% to jakis dowcip - a ze lubie abstrakcyjny humor to sie z przyjemnoscia posmialem - DZIENX MAN! hyhyhy ;] Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Lumperator Opublikowano 7 Grudnia 2005 Zgłoś Opublikowano 7 Grudnia 2005 (edytowane) Mowa oczywiście o porównaniu Voodoo 3 do TNT2. V5 w ogóle nie biorę pod uwagę z powodu ówczesnej i teraźniejszej niedostępnosci karty. Voodoo 3 czy TNT2 ? TNT2. @cmsydney "a prawda jest taka ze programista ktory napisze dobrze gre to bedzie wygladala jak na 32bit" Masz bujną wyobraźnę :) Edytowane 7 Grudnia 2005 przez Lumperator Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
KGB Opublikowano 7 Grudnia 2005 Zgłoś Opublikowano 7 Grudnia 2005 nie no ,na voodoo3 naprawde nie bylo widac wiekszej roznicy w kolorze moze to dlatego ,ze w tamtych czasach gry byly i tak pisane pod 3dfx :P ale faktem jest ze dzisiaj na TNT2 bez problemu mozna odpalic niektore nowe gry ,ktore na V3 nie odpalaja (przynajmniej na normalnych sterach) i mozna gdybac - V3 brak texturowania ,male textury - ale wtedy to byl duzy plus (przynajmniej z texturowaniem) bo sporo plyt mialo problemy np. u mnie Savage3D ,Savage4 ,TNT2 - zwiechy przy graniu ,V3 -niedojze ze najszybsze to jeszcze bezproblemowe no a dzis wiadomo - V3 nawet nie wlozysz do agp8x ,a TNT2 moze spokojnie sluzyc jako karta zapasowa sam jestem wyznawca voodoo ,choc na poczatku korcila mnie ciemna strona 32-bit koloru jednak po zbadaniu zjawiska lider byl tylko jeden rynek rzadzi sie swoimi prawami,jednak NV nie zagrala czysto - pamietam jak gazety szydzily ze slow szefa 3dfx przy wypuszczaniu V4/V5 ze T&L nie jest jeszcze potrzebne - jak widac byla to prawda ,ale 3dfx padl 3dfx juz nie wroci ,ale PowerVR moglby wreszcie cos pokazac ,bo KYRO to jest dobiero wymiatacz :P Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
cmsydney Opublikowano 8 Grudnia 2005 Zgłoś Opublikowano 8 Grudnia 2005 (edytowane) male sprostowanie, fakt nawet zapomnialem ze v5 mialo 32bit oraz duze tekstury, mialem rowniez v3 i w porownianiu do tnt2 bylo to samo (oprocz tekstur), kolory identyczne. zadnych przejsc kolorow, ale za to v3 bylo zdecydowanie szybsze i teraz zastanowcie sie, jak v3 generowalo te 22bity? napewno nie sprzetowo, to byl trik programowy ktory najprawdopodobniej byl rowniez stosowany w starszych grach by nie bylo widac przejsc kolorow, pozniej tego w grach zabraklo i nagle 32bity staly sie standardem nie wiezycie? odpalcie sobie jakies stare gry: turok, shadows of the empire i inne a czy v5 mialo prawdziwy 32bit kolor? nikt tego nie moze byc pewien aha i czy t&l bylo potrzebne? oczywiscie ze nie, to byl pic na wode, jak to nvidia sie zachwalala t&l umozliwialo wyswietlenie ladnej jednej opony samochodowej (LINK), ale motor potrzebuje dwoch a samochod juz czterech..... smiechu warte :lol2: :lol2: :lol2: Edytowane 8 Grudnia 2005 przez cmsydney Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Lumperator Opublikowano 8 Grudnia 2005 Zgłoś Opublikowano 8 Grudnia 2005 (edytowane) 3dfx nie miał koncepcji. Nvidia najpierw zintegrowała w karcie graficznej akcelerator 3D, potem rozwijała prace nad serią kart TNT-TNT2 by wreszcie osiągnąć zamierzony cel - GeForce256. Nvidia cały czas idzie z postępem. Pomijając bardzo nieudaną serię FX, kolejne karty z serii GeForce są krokiem naprzód. Co druga seria jest małą rewolucją. Powstanie GF256 było krokiem milowym. Później GF2 tylko rozwinięciem. GF3 (PixelShader) znowu spory krok naprzód, a GF4Ti przedłużenie. Seria FX miała być kolejnym sporym uderzeniem (zwłaszcza technologicznym), ale jak było, każdy wie. GF6 i wszelkie nowinki z nim związane pozwoliły NV odebrać pierwszeństwo, które przez długi czas należało do ATi. I znowu seria GF7 jest rozwinięciem poprzedniego pomysłu. Można zatem oczekiwać, że G80 będzie mocnym sprzętem -znacznie lepszym i ciekawszym niż obecne GF6/7. U 3Dfxa panowała zupelnie inna atmosfera. Wydanie Voodoo I było na ówczesne czasy prawdziwie rewolucyjnym posunięciem. To był znacznie mocniejszy cios w konkurencję aniżeli miało to miejsce z GeForce256. Magia Voodoo nie dawała żadnych szans pozostałym rywalom. Znane wówczas akceleratory PCI Diamond Monster rozchodzily się w tempie błyskawicznym. Później Voodoo 2 znowu zgniótł konkurencję. Granie w Unreala na tym dopalaczu to była istna rozkosz. Kiedy do gry weszła NVIDIA, coś sie zaczęło paprać. Wprawdzie większość gier na Voodoo 2 chodziła lepiej niż na Rivie 128 (a bardzo często nawet lepiej niż na 16 megowej TNT!), to stopniowa przewaga jakościowa w kartach Riva oraz zintegrowany w niej akcelerator 3D nie dawały cienia wątpliwości co do nadchodzącej, druzgocącej przewagi. 3Dfx... a właściwie 3dfx po wydaniu Voodoo3 nie mial już większych szans. NVIDIA zbudowała spory budżet po bardzo udanej serii TNT (zwłaszcza z tymi hucznymi Detonatorami!). O NVIDII zaczęło się mówić głośno, powstawało coraz wiecej kart od różnych producentów. 3dfx nie mogł się przez to przedrzeć. I w dodatku ten 16 bitowy kolor. Magia Voodoo skonczyła się w momencie zmiany logo firmy. Między czasie trochę zamętu zrobił Matrox G400... wypadł z gry przez wysoką cenę. Jednak do dziś znajduje swoich nabywców (patrz allegro^^). Edytowane 8 Grudnia 2005 przez Lumperator Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
nightstalker Opublikowano 8 Grudnia 2005 Zgłoś Opublikowano 8 Grudnia 2005 Ej ja mam AGP Pro/8X na mojej Asus A7N8X Deluxe! Mogę z tego jakoś skorzystać ? Co do 3dfx.. To były piękne czasy! W NFSIII kokpity mogli zobaczyć tylko szczęsliwi posiadacze Voodoo z 12MB na pokładzie! Pamiętam ze największe wrażenie na mnie zrobił RedlineRacer jeszcze za czasów VoodooI 4MB... Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
ChomiK Opublikowano 8 Grudnia 2005 Zgłoś Opublikowano 8 Grudnia 2005 (edytowane) CMSYDNEY: teraz zastanowcie sie, jak v3 generowalo te 22bity? napewno nie sprzetowo, to byl trik programowy ktory najprawdopodobniej byl rowniez stosowany w starszych grach by nie bylo widac przejsc kolorow, pozniej tego w grach zabraklo i nagle 32bity staly sie standardem Musze powiedziec ze z kazda Twoja wypowiedzia jestem coraz bardziej zaskoczony Twoim brakiem wiedzy - co ciekawe caly czas odzywasz sie w tym temacie co konczy sie plodzeniem glupot powyzszego pokroju...anyway w sumie i tak wszyscy rozminelismy sie z pierwotnym tematem...;]Dobra rada: poczytaj troche o ditheringu w 16bit 32bit i pseudo 22bit[tak naprawde 16bit+pare sztuczek] - zobaczysz o co tak naprawde chodzi z tymi bitami...;] CMSYDNEY: czy v5 mialo prawdziwy 32bit kolor? nikt tego nie moze byc pewienHaha - nastepna idiotyczna wypowiedz - to ze V5 ma 32bit kolor to FAKT - jezu man !! rozejrzyj sie po sieci - i znoow poczytaj o ditheringu ;] CMSYDNEY: czy t&l bylo potrzebne? oczywiscie ze nie, to byl pic na wode, jak to nvidia sie zachwalala t&l umozliwialo wyswietlenie ladnej jednej opony samochodowej (LINK), ale motor potrzebuje dwoch a samochod juz czterech..... smiechu warteNo musze przyznac ze porafisz stopniowac napiecie i najlepsze zostawiasz na koniec...;]to juz jest kompletny dowood braku wiedzy w temacie na ktoory proobujesz sie nieudolnie wypowiadac...Czy T&L to pic na wode? czlowieku!!! - wprowadzenie T&L to odciazenie CPU od obliczania transformacji i oświetlenia i przekazanie tych zadan dla karty graficznej - ten aspekt do tej pory zawsze spoczywał na barkach procesora....to wlasnie od tego momentu na procesory kart graficznych zaczelo sie moowic GPU!!! [Graphic Processing Unit] - jednostka przetwarzania grafiki - dlaczego? od tej pory wszystkimi aspektami wyswietlania grafiki zajmuje sie tylko i wylacznie k.graficzna - procek moze liczyc na przyklad A.I., fizyke i inne co niewatpliwie dawalo programistom zupelnie nowe mozliwosci !! To byla rewolucja!!!! A Ty cos o jakichs oponach nawijasz totalnie bez sensu - cos zobaczyles w jakims demku pewnie i nie zalapales jego sensu...;] KGB: pamietam jak gazety szydzily ze slow szefa 3dfx przy wypuszczaniu V4/V5 ze T&L nie jest jeszcze potrzebne - jak widac byla to prawda Z twojej wypowiedzi wynika ze to 3Dfx pierwsze zamierzalo wprowadzic jednostkę T&L - o ile dobrze Cie zrozumialem. Gwoli scislosci napisze jedno: 3Dfx zapowiedzialo uklad VSA100 [czip stosowany w V4/5] z obsługa T&L 16-tego listopada 1999. Mialo to miejsce o wiele za poozno - wtedy juz bylo pozamiatane bo NVidia uderzyla zz GeForcem256 31-szego sierpnia 1999. porazka 3Dfx to tylko i wylacznie wina menagmentu tej firmy - mysleli ze trzymaja rynek za jaja i zamiast sie rozwijac zbyt szybko spoczeli na laurach...tymczasem nVidia rozwijajac nowatorskie pomysly znakomicie znalazla sie na rynku coraz szybciej rozwijajacego sie rynku gier komputerowych... To by bylo na tyle ;] KGB - big respect - mam nadzieje ze nie odbierasz zle mojej wypowiedzi - najzwyczajniej kcialem uscislic ;] CMSYDNEY - respect - mam nadzieje ze nie poczules sie urazony moimi komentarzami - nie mialem takiego zamiaru. Anyway naprawde lubie sie posmiac, a ty dostarczyles mi sporej dawki humoru ;] - chyba podejrze inne Twoje posty ;] pozdro... Edytowane 8 Grudnia 2005 przez ChomiK Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
sucker Opublikowano 8 Grudnia 2005 Zgłoś Opublikowano 8 Grudnia 2005 ChomiK czy dzisiejsze karty graficzne(a dokladnie GPU/VPU) posiadaja jednostke T&L? Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
sideband Opublikowano 8 Grudnia 2005 Zgłoś Opublikowano 8 Grudnia 2005 mają jakby nie miały to by nie były zgodne z dx7 , a tak naprawde to t&l to [ciach!]o dawało , bo jak weszły mocniejsze procki np Athlon Xp to już procesory były na tyle mocne , że zysk z t&l był mały , wystarczy postestować 3dmarka 2001 z t&l i bez na mocnym procku spadek pkt jest bardzo mały Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Lumperator Opublikowano 8 Grudnia 2005 Zgłoś Opublikowano 8 Grudnia 2005 (edytowane) Sucker wszystkie obecne karty graficzne posiadają sprzętową jednostkę przetwarzania transfomacji i oświetlenia. Czy wyobrażasz sobie, żeby teraz tak zaawansowane procesory nie miały tego? To byłoby zaprze- czeniem nazwy GeForce. Cofnij się do 1999 roku i poczytaj troszkę. Od czasów GF256 żadna firma nie pokazała nic rewolucyjnego. W drodze ewolucji powstało wiele ciekawych rozwiązań na bazie stareeeego GeForce256. Zobaczymy co czas pokaże. @ sideband Czymś NVIDIA musiała zaszpanować. na samym początku zysk w wydajnosci mógł być wyraźny. We wrześniu 1999 roku nie było Athlonów XP. Zerknij na testy - GeForce256 mocno odsadził konkurencję... zwłaszcza w nowych grach. Edytowane 8 Grudnia 2005 przez Lumperator Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
sucker Opublikowano 8 Grudnia 2005 Zgłoś Opublikowano 8 Grudnia 2005 Zanim bedziecie pisac ze obecne karty posiadaja jednostke T&L to radze sobie poczytac cos wiecej o obencnych kartach. Dodam ze dojdziecie do czegos takiego jak VS. I radze najpierw poszukac a nie spekulowac ;) Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
sideband Opublikowano 8 Grudnia 2005 Zgłoś Opublikowano 8 Grudnia 2005 jeżeli nie ma jednostki t&l to jakaś inna jednostka przejeła zadania t&l , obczaiłem troche tylko karty dx7 i dx8 mają jednostke t&l , dx9 już nie Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Lumperator Opublikowano 8 Grudnia 2005 Zgłoś Opublikowano 8 Grudnia 2005 (edytowane) Pierwsze symptomy związane z przetwarzaniem oświetlenia w jednym przebiegu pojawiły się z premierą GeForce3. Rozbudowana jednostka T&L2, w skład której wchodził PS1.1 posiadała wiele innych ciekawostek - a chociażby długo oczekiwane mapowanie środowiska znane z czasów G400. Pół roku po premierze GeForce4 Ti, ATi stworzyło nowy procesor w którym zaawansowana = programowalna jednostka oświetleniowa (i nie tylko!) pozostała przy nowej-starej nazwie - PixelShader v2.0. Obliczenia geometryczne trójkątów nazwano Vertex Shader. Ale tak naprawdę programowalny PixelShader i wydajny VertexShader bazują na starym dobrym pomyśle sprzed lat - odciążenie procesora głownego z przeliczania geometri i oświetlenia (T&L) Każda kolejna generacja staje się coraz bardziej niezależna od procesora głownego. I powracamy do sedna sprawy. Kiedyś wielką rewolucją był oddzielny akcelerator od 3Dfx'a, który na ówczesne czasy był absolutnie nowością numer 1. Z kolei GeForce256 to produkt, który został opracowany tak, by jego magia (a w zasadzie siła ^^) przyciągała przez wiele lat. Cóż, 3Dfx zachłysnął się własnym fenomenem, który w dobie nieprzemy- ślanej polityki firmy doprowadził do takiego a nie innego skutku. Edytowane 8 Grudnia 2005 przez Lumperator Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Lumperator Opublikowano 8 Grudnia 2005 Zgłoś Opublikowano 8 Grudnia 2005 (edytowane) @ sideband Tą jednostką jest PS 2.0 i VS2.0 (ShaderModel 2.0) które razem z programowalnym procesorem przetwarzania video (VideoShader) tworzą chip. Wydajność tego przetwarzania można wykorzystać przy dekodowaniu DVD, HDTV, wysyłaniu obrazu na TV, encodowaniu video itd. Niestety brak dobrego softu ogranicza niektóre możliwości. Zdaje się że w niemieckim Chipie pokazano wyniki wydajności kompresji MPEG2 => WMV przy wykorzystaniu CPU oraz przy wykorzystaniu technologii AVIVO. ATi udostępniło w wersji beta programik, za pomocą którego dokonano testu. Wyniki - z AVIVO 5x szybciej !!! Stary T&L pozostaje jedynie w specyfikacji DirectX7. ShaderModel2.0 (czyli można by powiedzieć nowe, proste w programowaniu i bardzo wydajne T&L) musi być sprzętowo zgodny ze starym T&L. Jesli by tak nie było, to logiczne, że powstałyby problemy z uruchamianiem gier DX7 z poziomu DX9 na najnowszych kartach. Edytowane 8 Grudnia 2005 przez Lumperator Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
sucker Opublikowano 8 Grudnia 2005 Zgłoś Opublikowano 8 Grudnia 2005 Czy obecne karty maja sprzetowy czy programowy(lub emulowany jak niektorzy wola) T&L Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
cmsydney Opublikowano 8 Grudnia 2005 Zgłoś Opublikowano 8 Grudnia 2005 Sucker wszystkie obecne karty graficzne posiadają sprzętową jednostkę przetwarzania transfomacji i oświetlenia. Czy wyobrażasz sobie, żeby teraz tak zaawansowane procesory nie miały tego? To byłoby zaprze- czeniem nazwy GeForce. Cofnij się do 1999 roku i poczytaj troszkę. Od czasów GF256 żadna firma nie pokazała nic rewolucyjnego. W drodze ewolucji powstało wiele ciekawych rozwiązań na bazie stareeeego GeForce256. Zobaczymy co czas pokaże. @ sideband Czymś NVIDIA musiała zaszpanować. na samym początku zysk w wydajnosci mógł być wyraźny. We wrześniu 1999 roku nie było Athlonów XP. Zerknij na testy - GeForce256 mocno odsadził konkurencję... zwłaszcza w nowych grach. no tak cofinijmy sie w czasie, voodoo5 bez t&l bylo niemalze porownywalne z geforce2 gts, i to bez t&l, a po co bylo t&l? po to by obciazyc procka i by grafika stala sie niezalezna od proca? jak bylo w rzeczywistosci? tak jak przed t&l. nadal grafika byla zalezna od proca, czyli t&l to byla lipa, to byl tylko pretekst by zniszczyc 3dfx'a, tak jak dzisiejsze vertexy i inne srexy...... Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość MD0 Opublikowano 8 Grudnia 2005 Zgłoś Opublikowano 8 Grudnia 2005 @ cmsydney VooDoo 5500 było nie niemalże porównywalne tylko w pełni konkurencyjne, a w CD-Action :D test porónawczy był z niemal równymi wynikami, a nawet ze wskazaniem na VooDoo(dostał medal hehe) Inna sprawa ze uwczesne gry raczej nie potrafiły wykorzystać Transformu i Lajtingu :wink: Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Lumperator Opublikowano 9 Grudnia 2005 Zgłoś Opublikowano 9 Grudnia 2005 (edytowane) @ cmsydney Voodoo 5 to 2 procesory, a GF2 tylko jeden. Dostępność kart z serii Voodoo 5 była znikoma. Ceny fatalne. O czym my tu rozmawiamy. 3dfx zrobił błąd i tyle. Dobił się na amen tym zupełnie wyczerpanym z magii, lipnym, energochłonnym i potwornie drogim akceleratorem. Edytowane 9 Grudnia 2005 przez Lumperator Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
sucker Opublikowano 9 Grudnia 2005 Zgłoś Opublikowano 9 Grudnia 2005 cmsydney jednostka T&L nie wystepuje dzisiaj w grafach co nie oznacza ze VS jst do bani bo nie jest. Dzieki niemu programista moze zrobic duzo ciekawych efektow, jednostka VS jest programowalna w przeciwnienstwie do T&L, ktore bylo w GF256/2. W GF3 byla jeszcze taka jednostka T&L aby zapewnic zgodnosc z GF256/2 ale w noszych kartach(chyba od FX'ow(lub juz w GF4 nie pamietam dokladnie) u nVidi i R300 u Ati) nie ma jednostek T&L. Ich zadanie przejal VS. W r300 jak mnie pamiec nie myli VS emuluje stary T&L ktory obecnie nie jest uzwany ze wzgledu np. na to ze nie jest on zalezny od programisty czyli mowiac prosto jest nieprogramowalny. Obecnie wykorzystuje sie tylko VS i karty nie posiadaja jednostki T&L. Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Lumperator Opublikowano 9 Grudnia 2005 Zgłoś Opublikowano 9 Grudnia 2005 sucker, ale nie myl pojęć VideoShader i ShaderModel. Wprawdzie do jednego się sprowadza, ale pierwsze odpowiada za przetwarzanie video z wykorzystaniem potoków cieniujących, a drugie to programowalna jednostka geometrii i oświetlenia wykorzystywana w grach. Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
sucker Opublikowano 9 Grudnia 2005 Zgłoś Opublikowano 9 Grudnia 2005 sucker, ale nie myl pojęć VideoShader i ShaderModel. Wprawdzie do jednego się sprowadza, ale pierwsze odpowiada za przetwarzanie video z wykorzystaniem potoków cieniujących, a drugie to programowalna jednostka geometrii i oświetlenia wykorzystywana w grach. Nie myle pojec. Nie wiem skad tobie wzielo sie VideoShader? Ja caly czas mowie o VertexShader a on jest czescia SM i wraz z PS tworzy SM. Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...