Skocz do zawartości
Netmann

Agp Pro Oraz Voodoo 5500

Rekomendowane odpowiedzi

nie pisz glupot - to co wyswietla riva czy inna karta w trybie Dx to beporownywalna kaszana w stosunku do Glide

nie dotyczy to trybu S3TC ktory obslugiwal tylko S3 Savage

proponuje porownac sobie UT na Voodoo3 ,Savage4 i calym pozostalym sfufie w Dx czy Ogl

wyglad jest nieporownywalny ,a troche kart przemielilem : rivaTNT,TNT2 m64 ,kyro,geforce2mx, rage pro ,radeony

 

co ciekawe to jedyna gra w ktorej wykorzystano pelny S3TC i Savage4 dawal najladniejszy obraz i wydajnoscia dorownywal voodoo3 <_<

cala resta stawki w tyle

Ze co ;)

Co to jest S3TC wytlumaczyl Ci juz ChomiK.

Co do Savage to pod wzgledem wydajnosci uklad slabszy od V2 i Rivy TNT(nawet nie 2 ;P). Do tego dochodza sterowniki, ktore sa pieta achillesowa tej karty. W tamtym okresie nie tylko ze na kartach S3 grafika miala przeklamania to do tego gry potrafily zacinac sie w naglych momentach i wtedy tlko restarcik. Stery do tej karty byly okropne. Do tego dochodzi brak Twin Texel.

Co do jakosci to nie wiem skad to wytargales ;)

Zagraj sobie w Unreala(pierwsza czesc) na glide i na OGL/DX i bedziesz wiedzial jaka karta generuje najlepszy obraz. Unreal najelpiej wyglda na kartach 3dfx'a i nie ma co dyskutowac. Wiem bo gralem w Unreala w DX/OGL i w Glide na kartach 3dfx'a i najelpiej Unreal wyglada na kartach 3dfx'a.

Potem S3 wydalo poprawionego Savage4 ale stery znowu daly o sobie znac. Karta nie podpila swiata mimo ze na papierze wygladala calkiem, calkiem.

To samo bylo z Savage 2000. Znowu sterowniki spowodowaly ze karta technicznie bardzo dobra(i nowoczesna jak na swoje czasy T&L spzretowy) okazala sie klapa.

 

PS

S3TC powoduje pogorszenie jakosci obrazu. Niewiele i czesto niezauwazalne ale powoduje.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

S3TC powoduje pogorszenie jakosci obrazu. Niewiele i czesto niezauwazalne ale powoduje.

 

No bo to przecie kompresja - kazda kompresja na tym polega niestety ze cos sie "wycina" dla zmniejszenia rozmiaroow. To samo tyczy sie Mp3 przecie...

 

co do s3tc to tak, jakos jest zauwazalnie gorsza, najlepsza jakosciowo kompresja to fxt1

No tu sie znowu nie zgodze - jesli chodzi o stopien kompresji to rzeczywiscie fxt1 jest najskuteczniejsza ale za to wlasnie KOSZTEM jakosci ... S3TC [jak zreszta fxt1] zaimplementowana jest we wszystkich popularnie produkowanych ukladach graficznych i oferuje najlepsza jak dotad jakosc w stosunku do stopnia kompresji.

To co napisales dowodzi jeszcze jednego. Skoro błednie stwierdziles ze jakosc przy S3TC jest gorsza, znaczy ze a to tylko Twoje subiektywne odczucia bo rzeczywistosc jest zupelnie inna - to wlasnie S3TC ma przewage nad fxt1 pod wzgledem jakosci...co mozecie dokladnie obadac pod tym adresem

 

Pozdro dla wszystkich...

Edytowane przez ChomiK

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

o czym wy mowicie

Chomik chcial dobrze i prawie dobrze napisal

S3TC to natywny sposob kompresji tekstur S3

pozniej niby wykorzystalo to i ATI i NV ,ale nie w takim stopniu jak pierwowzor (NV wyswietlala tekstury 64mb przy pomocy teksturowania agp ,a savage4 przy wykorzystaniu pamieci karty -WIEM co pisze ,bo mialem plyte ktora za ch.. NIE CHCIALA TEXTUROWAC przez AGP)

 

sucker

S3TC nie powodowalo pogorszenia jakosci tekstur -moze minimalne ,ale niezauwazalne

po co odpalac UNREALa ,lepiej UT (UnrealTornament) ktory ma natywna obsluge Glide dla Voodoo3 i pelne wykorzystanie programowe S3TC dla Savage4 -chyba jedyna gra

tam doskonale widac ze Savage 4 daje najlepszy obraz i jest tak szybkie jak Voodoo3 (co do zegara - rowniez jedyna gra)

w innych grach Savage4 mial problem by obronic sie przed rivaTNT na w UT rozwalal pelna riveTNT2 dajac lepszy obraz

 

nie twierdze ze S3 mialo dobre stery ,bo mialo tragiczne ,ale widac jaki potencjal mialy te uklady przy dobrze napisanym programie

voodoo3 za to mialo swietne stery i przy swojej natywnej kompresji (brak texturingu) respekt dal nich za to co potrafili zrobic przy 16mb pamieci i 22-bit kolor wewnetrzyny

Edytowane przez KGB

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Rzeczywiscie KGB masz racje - savage4 uzywa pamieci karty - co nie zmienia idei S3TC - jest caly czas wykorzystywana...

 

Odnosnie 22bit koloru w voodoo3:

3dfx ogłosil ze ich karta renderuje wewnetrznie w 32bitach ale na wyjsciu daje 16 - 3dfx poroownalo to do renderingu 22bitowego. W rzeczywistosci jakosc obrazu generowanego przez TNT2 wtedy, byla lepsza juz w 16bitach. Podobnie z teksturami - 3dfx zatrzymal sie na etapie z przed 2 lat - max wielkosc textury 256x256...Dodatkowo dochodzi AGP, ktoore zaimplementowano w voodoo3 tylko po to zeby uzytkownicy "nowszych" wtedy plyt mogli wpiac ta karte - niestety nikt nie wykorzystał potencjału w rzeczywistosci [no wlasnie brak teksturowania przez AGP] - AGP dla voodoo3 to raczej cos w rodzaju wewnetrznej przejscioofki z PCI na AGP...nic wiecej....

 

pozdro...

 

PS:Sie maly OffTopic zrobil ... ;]

Edytowane przez ChomiK

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

nie pisz glupot - to co wyswietla riva czy inna karta w trybie Dx to beporownywalna kaszana w stosunku do Glide

nie dotyczy to trybu S3TC ktory obslugiwal tylko S3 Savage

proponuje porownac sobie UT na Voodoo3

Unreal Tournament był jedną z niewielu gier, które obsługiwały na przełomie 1999 i 2000 roku API 3dfxa.

Ty mi mówisz o Voodoo 3 z 16bitowym kolorem, a każdy myślący człowiek wybrałby TNT z 32 bitową paletą.

A przecież inaczej nie było. Mało znana NVIDIA zaczęła kopac dołek pod 3dfxem juz za czasów pierwszej TNT !

Miałem u siebie VoodooRush, później przez króki czas Voodoo Banshee. To prawda, że Unreal i UT wyglądały

na kartach 3Dfxa świetnie. Przełączajac się w tryb D3D odrazu znikała szczegółowośc tekstur, wszystko

stawało sie takie nijakie. Ale analogicznie mogę powiedziec o Quake III, który na TNT2 wyglądał po prostu pięknie!

 

NVIDIA była tak bezlitosna wobec 3dfxa jak Creative wobec Aureala. Jednak Creative w najnowszych kartach

przywrócił pozycjonowanie dźwięku znane z serii kart Vortex. O Glide w wydaniu NVIDII mozemy jednak pomarzyć ^_-

Edytowane przez Lumperator

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Rzeczywiscie KGB masz racje - savage4 uzywa pamieci karty - co nie zmienia idei S3TC - jest caly czas wykorzystywana...

 

Odnosnie 22bit koloru w voodoo3:

3dfx ogłosil ze ich karta renderuje wewnetrznie w 32bitach ale na wyjsciu daje 16 - 3dfx poroownalo to do renderingu 22bitowego. W rzeczywistosci jakosc obrazu generowanego przez TNT2 wtedy, byla lepsza juz w 16bitach. Podobnie z teksturami - 3dfx zatrzymal sie na etapie z przed 2 lat - max wielkosc textury 256x256...Dodatkowo dochodzi AGP, ktoore zaimplementowano w voodoo3 tylko po to zeby uzytkownicy "nowszych" wtedy plyt mogli wpiac ta karte - niestety nikt nie wykorzystał potencjału w rzeczywistosci [no wlasnie brak teksturowania przez AGP] - AGP dla voodoo3 to raczej cos w rodzaju wewnetrznej przejscioofki z PCI na AGP...nic wiecej....

i tu sie nie zgodze

prawda jest taka ze 3dfx mial gowniana polityke firmy ale nvidia chciala jeszcze na sile go zniszczyc, udalo sie a wszystko przez dobry marketing

glownie poszlo o 32bity a prawda jest taka ze programista ktory napisze dobrze gre to bedzie wygladala jak na 32bit, czy za czasow voodoo ktos psioczyl na przejscia kolorow? nie, bo ich nie bylo, niestety pozniej programisci sie rozleniwili i tak wyszlo. 3dfx wiedzial ze nie ma to znaczenia ale rynek go przerosl

 

Ale analogicznie mogę powiedziec o Quake III, który na TNT2 wyglądał po prostu pięknie!

i znowu nieprawda, porownujac teraz q3 na radeonie x700 i voodoo5 nie ma zadnej roznicy!!!!!!!

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

MD0 - AGP Pro = dostarczanie większego napięcia. Nie am to nic

wspólnego z przepustowością, która w AGP4x jest teoretycznie

dukrotnie większa (tak jak w teorii AGP8x ma dwukrotną przewagę

nad AGP4x - a jak jest, każdy wie ^^).

 

Gry na Voodoo (obsługa Glide) wyglądały lepiej niż u konkurencji

(do czasu Rivy TNT 16MB). Później 3dfx zaczął się lekko kaszanić :\

Ej jeśli chodzi ci o to, że AGP Pro = AGP 2x + dostarczanie większego napięcia, to

jesteś w błędzie, bo AGP Pro = AGP 4x + dostarczanie większego napięcia

wiem bo pamiętam te czasy, na dowód tego zapodaje linka

 

http://www.macosx.com/articles/Expansion-C...Part-2-AGP.html

 

moze zacytuje bo troche tego tam jest:

 

"Another specification for AGP was released between 2.0 and 3.0,

and was referred to as AGP Pro." :wink:

 

Pozdrawiam

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

i znowu nieprawda, porownujac teraz q3 na radeonie x700 i voodoo5 nie ma zadnej roznicy!!!!!!!

Tylko wydaje mi sie ze Lumperator mowi o Q3 na Rivie TNT2 i V2/3 ktore nie obsluguja 32bit'owej palety, tekstor wieskszych od 256x256.

V5 w/g mnie to byla naprawde swietna karta. T&L podobnie jak na poczatku 32bit'y byl tylko chwytem marketingowym. Dzisiaj jakos nowe karty nie maja jednostki T&L ;).

V5 mialo ogromna przewage nad Geforcami a mianowicie jakosc obrazu. Jakosc FSAA na V5 w/g mnie nawet dzisiaj mozna nazwac bardzo dobra. 3dfx postawil wtedy na poprawianie obrazu czyli lansowanie FSAA podczas gdy nVidia postawila na nowa technologie czyli T&L.

nVidia lepiej wyczula koninkture. FSAA jak na tamte czasy byl za bardzo meczacy dla karty ale V5 nawet dawala sobie z nim rade :)

Do tego w V5 3dfx w koncu wprowadzil wieksze tekstury a nie ograniczone do 256x256 jak to bylo w poprzednikach. To w/g mnie byla glowna wada V3 a nie paleta kolorow. Wlaczalem pare gier w 32 i 16bitach i nie potrailem znalezc roznic.

Mialem V2, V3(nadal mam) Rive TNT2 i musze powiedziec ze na ziemie powalila mnie V2 i V3. V2 jakoscia grafiki po odpaleniu Unreala a V3 ta sama grafa tylko ze znacznie lepszym framerate :).

Pamietam jak pierwszy raz uruchomilem Unreala na V2 i ofrazu dalem rozdzilke 800x600(max dla jednej karty). Gra chodzila plynnie, bez zwolnien a grafa POWALALA. Softwareowy Unreal w/g mnie bardzo duzo traci mimo ze zawsze mowie ze miod jest wazniejszy od grafiki ale tutaj grafa bardzo duzo pomaga grze, szczegolnie jakosc tekstor.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

CMSYDNEY:

i tu sie nie zgodze

Hyhy - chyba nie chcesh sie pogodzic z rzeczywistoscia - tak po prostu jest - rozejrzyj sie po sieci i poszukaj...;]

 

CMSYDNEY:

prawda jest taka ze 3dfx mial gowniana polityke firmy

To akurat prawda ;]

 

CMSYDNEY:

glownie poszlo o 32bity a prawda jest taka ze programista ktory napisze dobrze gre to bedzie wygladala jak na 32bit, czy za czasow voodoo ktos psioczyl na przejscia kolorow? nie, bo ich nie bylo, niestety pozniej programisci sie rozleniwili i tak wyszlo. 3dfx wiedzial ze nie ma to znaczenia ale rynek go przerosl

Hahaha - pozostawie bez komentarza !!! ;]

W sumie to sie sobie nawet dziwie ze odpowiadam na tego posta...;]

-------------------------------------------------------------------------------------

SUCKER - odnosze dziwne wrazenie ze twoj post w 95% to jakis dowcip - a ze lubie abstrakcyjny humor to sie z przyjemnoscia posmialem - DZIENX MAN! hyhyhy ;]

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Mowa oczywiście o porównaniu Voodoo 3 do TNT2. V5 w ogóle nie biorę pod uwagę z powodu ówczesnej i teraźniejszej niedostępnosci karty.

Voodoo 3 czy TNT2 ? TNT2.

 

@cmsydney

"a prawda jest taka ze programista ktory napisze dobrze gre to bedzie wygladala jak na 32bit"

 

Masz bujną wyobraźnę :)

Edytowane przez Lumperator

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

nie no ,na voodoo3 naprawde nie bylo widac wiekszej roznicy w kolorze

moze to dlatego ,ze w tamtych czasach gry byly i tak pisane pod 3dfx :P

ale faktem jest ze dzisiaj na TNT2 bez problemu mozna odpalic niektore nowe gry ,ktore na V3 nie odpalaja (przynajmniej na normalnych sterach)

i mozna gdybac - V3 brak texturowania ,male textury - ale wtedy to byl duzy plus (przynajmniej z texturowaniem) bo sporo plyt mialo problemy np. u mnie Savage3D ,Savage4 ,TNT2 - zwiechy przy graniu ,V3 -niedojze ze najszybsze to jeszcze bezproblemowe

no a dzis wiadomo - V3 nawet nie wlozysz do agp8x ,a TNT2 moze spokojnie sluzyc jako karta zapasowa

 

sam jestem wyznawca voodoo ,choc na poczatku korcila mnie ciemna strona 32-bit koloru

jednak po zbadaniu zjawiska lider byl tylko jeden

rynek rzadzi sie swoimi prawami,jednak NV nie zagrala czysto - pamietam jak gazety szydzily ze slow szefa 3dfx przy wypuszczaniu V4/V5 ze T&L nie jest jeszcze potrzebne - jak widac byla to prawda ,ale 3dfx padl

 

3dfx juz nie wroci ,ale PowerVR moglby wreszcie cos pokazac ,bo KYRO to jest dobiero wymiatacz :P

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

male sprostowanie, fakt nawet zapomnialem ze v5 mialo 32bit oraz duze tekstury, mialem rowniez v3 i w porownianiu do tnt2 bylo to samo (oprocz tekstur), kolory identyczne. zadnych przejsc kolorow, ale za to v3 bylo zdecydowanie szybsze

i teraz zastanowcie sie, jak v3 generowalo te 22bity? napewno nie sprzetowo, to byl trik programowy ktory najprawdopodobniej byl rowniez stosowany w starszych grach by nie bylo widac przejsc kolorow, pozniej tego w grach zabraklo i nagle 32bity staly sie standardem

nie wiezycie? odpalcie sobie jakies stare gry: turok, shadows of the empire i inne

a czy v5 mialo prawdziwy 32bit kolor? nikt tego nie moze byc pewien

aha i czy t&l bylo potrzebne? oczywiscie ze nie, to byl pic na wode, jak to nvidia sie zachwalala t&l umozliwialo wyswietlenie ladnej jednej opony samochodowej (LINK), ale motor potrzebuje dwoch a samochod juz czterech..... smiechu warte :lol2: :lol2: :lol2:

Edytowane przez cmsydney

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

3dfx nie miał koncepcji. Nvidia najpierw zintegrowała w karcie graficznej

akcelerator 3D, potem rozwijała prace nad serią kart TNT-TNT2 by

wreszcie osiągnąć zamierzony cel - GeForce256. Nvidia cały czas

idzie z postępem. Pomijając bardzo nieudaną serię FX, kolejne karty

z serii GeForce są krokiem naprzód. Co druga seria jest małą rewolucją.

Powstanie GF256 było krokiem milowym. Później GF2 tylko rozwinięciem.

GF3 (PixelShader) znowu spory krok naprzód, a GF4Ti przedłużenie.

Seria FX miała być kolejnym sporym uderzeniem (zwłaszcza technologicznym),

ale jak było, każdy wie. GF6 i wszelkie nowinki z nim związane pozwoliły NV

odebrać pierwszeństwo, które przez długi czas należało do ATi. I znowu seria

GF7 jest rozwinięciem poprzedniego pomysłu. Można zatem oczekiwać, że G80

będzie mocnym sprzętem -znacznie lepszym i ciekawszym niż obecne GF6/7.

 

U 3Dfxa panowała zupelnie inna atmosfera. Wydanie Voodoo I było

na ówczesne czasy prawdziwie rewolucyjnym posunięciem. To był

znacznie mocniejszy cios w konkurencję aniżeli miało to miejsce

z GeForce256. Magia Voodoo nie dawała żadnych szans pozostałym rywalom.

Znane wówczas akceleratory PCI Diamond Monster rozchodzily się w tempie

błyskawicznym. Później Voodoo 2 znowu zgniótł konkurencję. Granie w Unreala

na tym dopalaczu to była istna rozkosz. Kiedy do gry weszła NVIDIA, coś sie

zaczęło paprać. Wprawdzie większość gier na Voodoo 2 chodziła lepiej niż na

Rivie 128 (a bardzo często nawet lepiej niż na 16 megowej TNT!), to stopniowa

przewaga jakościowa w kartach Riva oraz zintegrowany w niej akcelerator 3D

nie dawały cienia wątpliwości co do nadchodzącej, druzgocącej przewagi.

3Dfx... a właściwie 3dfx po wydaniu Voodoo3 nie mial już większych

szans. NVIDIA zbudowała spory budżet po bardzo udanej serii TNT

(zwłaszcza z tymi hucznymi Detonatorami!). O NVIDII zaczęło się

mówić głośno, powstawało coraz wiecej kart od różnych producentów.

3dfx nie mogł się przez to przedrzeć. I w dodatku ten 16 bitowy kolor.

Magia Voodoo skonczyła się w momencie zmiany logo firmy.

 

Między czasie trochę zamętu zrobił Matrox G400... wypadł z gry przez

wysoką cenę. Jednak do dziś znajduje swoich nabywców (patrz allegro^^).

Edytowane przez Lumperator

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ej ja mam AGP Pro/8X na mojej Asus A7N8X Deluxe! Mogę z tego jakoś skorzystać ?

Co do 3dfx.. To były piękne czasy! W NFSIII kokpity mogli zobaczyć tylko szczęsliwi posiadacze Voodoo z 12MB na pokładzie! Pamiętam ze największe wrażenie na mnie zrobił RedlineRacer jeszcze za czasów VoodooI 4MB...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

CMSYDNEY:

teraz zastanowcie sie, jak v3 generowalo te 22bity? napewno nie sprzetowo, to byl trik programowy ktory najprawdopodobniej byl rowniez stosowany w starszych grach by nie bylo widac przejsc kolorow, pozniej tego w grach zabraklo i nagle 32bity staly sie standardem

Musze powiedziec ze z kazda Twoja wypowiedzia jestem coraz bardziej zaskoczony Twoim brakiem wiedzy - co ciekawe caly czas odzywasz sie w tym temacie co konczy sie plodzeniem glupot powyzszego pokroju...anyway w sumie i tak wszyscy rozminelismy sie z pierwotnym tematem...;]Dobra rada: poczytaj troche o ditheringu w 16bit 32bit i pseudo 22bit[tak naprawde 16bit+pare sztuczek] - zobaczysz o co tak naprawde chodzi z tymi bitami...;]

 

CMSYDNEY:

czy v5 mialo prawdziwy 32bit kolor? nikt tego nie moze byc pewien

Haha - nastepna idiotyczna wypowiedz - to ze V5 ma 32bit kolor to FAKT - jezu man !! rozejrzyj sie po sieci - i znoow poczytaj o ditheringu ;]

 

CMSYDNEY:

czy t&l bylo potrzebne? oczywiscie ze nie, to byl pic na wode, jak to nvidia sie zachwalala t&l umozliwialo wyswietlenie ladnej jednej opony samochodowej (LINK), ale motor potrzebuje dwoch a samochod juz czterech..... smiechu warte

No musze przyznac ze porafisz stopniowac napiecie i najlepsze zostawiasz na koniec...;]to juz jest kompletny dowood braku wiedzy w temacie na ktoory proobujesz sie nieudolnie wypowiadac...Czy T&L to pic na wode? czlowieku!!! - wprowadzenie T&L to odciazenie CPU od obliczania transformacji i oświetlenia i przekazanie tych zadan dla karty graficznej - ten aspekt do tej pory zawsze spoczywał na barkach procesora....to wlasnie od tego momentu na procesory kart graficznych zaczelo sie moowic GPU!!! [Graphic Processing Unit] - jednostka przetwarzania grafiki - dlaczego? od tej pory wszystkimi aspektami wyswietlania grafiki zajmuje sie tylko i wylacznie k.graficzna - procek moze liczyc na przyklad A.I., fizyke i inne co niewatpliwie dawalo programistom zupelnie nowe mozliwosci !! To byla rewolucja!!!! A Ty cos o jakichs oponach nawijasz totalnie bez sensu - cos zobaczyles w jakims demku pewnie i nie zalapales jego sensu...;]

 

KGB:

pamietam jak gazety szydzily ze slow szefa 3dfx przy wypuszczaniu V4/V5 ze T&L nie jest jeszcze potrzebne - jak widac byla to prawda

Z twojej wypowiedzi wynika ze to 3Dfx pierwsze zamierzalo wprowadzic jednostkę T&L - o ile dobrze Cie zrozumialem. Gwoli scislosci napisze jedno: 3Dfx zapowiedzialo uklad VSA100 [czip stosowany w V4/5] z obsługa T&L 16-tego listopada 1999. Mialo to miejsce o wiele za poozno - wtedy juz bylo pozamiatane bo NVidia uderzyla zz GeForcem256 31-szego sierpnia 1999. porazka 3Dfx to tylko i wylacznie wina menagmentu tej firmy - mysleli ze trzymaja rynek za jaja i zamiast sie rozwijac zbyt szybko spoczeli na laurach...tymczasem nVidia rozwijajac nowatorskie pomysly znakomicie znalazla sie na rynku coraz szybciej rozwijajacego sie rynku gier komputerowych...

 

To by bylo na tyle ;]

 

KGB - big respect - mam nadzieje ze nie odbierasz zle mojej wypowiedzi - najzwyczajniej kcialem uscislic ;]

CMSYDNEY - respect - mam nadzieje ze nie poczules sie urazony moimi komentarzami - nie mialem takiego zamiaru. Anyway naprawde lubie sie posmiac, a ty dostarczyles mi sporej dawki humoru ;] - chyba podejrze inne Twoje posty ;]

 

pozdro...

Edytowane przez ChomiK

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

mają jakby nie miały to by nie były zgodne z dx7 , a tak naprawde to t&l to [ciach!]o dawało , bo jak weszły mocniejsze procki np Athlon Xp to już procesory były na tyle mocne , że zysk z t&l był mały , wystarczy postestować 3dmarka 2001 z t&l i bez na mocnym procku spadek pkt jest bardzo mały

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Sucker wszystkie obecne karty graficzne posiadają sprzętową jednostkę

przetwarzania transfomacji i oświetlenia. Czy wyobrażasz sobie, żeby

teraz tak zaawansowane procesory nie miały tego? To byłoby zaprze-

czeniem nazwy GeForce. Cofnij się do 1999 roku i poczytaj troszkę.

Od czasów GF256 żadna firma nie pokazała nic rewolucyjnego. W drodze

ewolucji powstało wiele ciekawych rozwiązań na bazie stareeeego GeForce256.

Zobaczymy co czas pokaże.

 

@ sideband

 

Czymś NVIDIA musiała zaszpanować. na samym początku zysk w wydajnosci

mógł być wyraźny. We wrześniu 1999 roku nie było Athlonów XP. Zerknij

na testy - GeForce256 mocno odsadził konkurencję... zwłaszcza w nowych grach.

Edytowane przez Lumperator

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Pierwsze symptomy związane z przetwarzaniem oświetlenia w jednym

przebiegu pojawiły się z premierą GeForce3. Rozbudowana jednostka

T&L2, w skład której wchodził PS1.1 posiadała wiele innych ciekawostek -

a chociażby długo oczekiwane mapowanie środowiska znane z czasów G400.

Pół roku po premierze GeForce4 Ti, ATi stworzyło nowy procesor w

którym zaawansowana = programowalna jednostka oświetleniowa

(i nie tylko!) pozostała przy nowej-starej nazwie - PixelShader v2.0.

Obliczenia geometryczne trójkątów nazwano Vertex Shader. Ale tak naprawdę

programowalny PixelShader i wydajny VertexShader bazują na starym

dobrym pomyśle sprzed lat - odciążenie procesora głownego z przeliczania

geometri i oświetlenia (T&L) Każda kolejna generacja staje się coraz bardziej

niezależna od procesora głownego. I powracamy do sedna sprawy.

Kiedyś wielką rewolucją był oddzielny akcelerator od

3Dfx'a, który na ówczesne czasy był absolutnie nowością numer 1.

Z kolei GeForce256 to produkt, który został opracowany tak, by

jego magia (a w zasadzie siła ^^) przyciągała przez wiele lat. Cóż,

3Dfx zachłysnął się własnym fenomenem, który w dobie nieprzemy-

ślanej polityki firmy doprowadził do takiego a nie innego skutku.

Edytowane przez Lumperator

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@ sideband

 

Tą jednostką jest PS 2.0 i VS2.0 (ShaderModel 2.0) które razem z programowalnym

procesorem przetwarzania video (VideoShader) tworzą chip.

Wydajność tego przetwarzania można wykorzystać przy dekodowaniu

DVD, HDTV, wysyłaniu obrazu na TV, encodowaniu video itd. Niestety

brak dobrego softu ogranicza niektóre możliwości.

Zdaje się że w niemieckim Chipie pokazano wyniki wydajności kompresji

MPEG2 => WMV przy wykorzystaniu CPU oraz przy wykorzystaniu technologii

AVIVO. ATi udostępniło w wersji beta programik, za pomocą którego dokonano testu.

Wyniki - z AVIVO 5x szybciej !!!

 

Stary T&L pozostaje jedynie w specyfikacji DirectX7. ShaderModel2.0 (czyli można by

powiedzieć nowe, proste w programowaniu i bardzo wydajne T&L) musi być sprzętowo

zgodny ze starym T&L. Jesli by tak nie było, to logiczne, że powstałyby problemy

z uruchamianiem gier DX7 z poziomu DX9 na najnowszych kartach.

Edytowane przez Lumperator

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Sucker wszystkie obecne karty graficzne posiadają sprzętową jednostkę

przetwarzania transfomacji i oświetlenia. Czy wyobrażasz sobie, żeby

teraz tak zaawansowane procesory nie miały tego? To byłoby zaprze-

czeniem nazwy GeForce. Cofnij się do 1999 roku i poczytaj troszkę.

Od czasów GF256 żadna firma nie pokazała nic rewolucyjnego. W drodze

ewolucji powstało wiele ciekawych rozwiązań na bazie stareeeego GeForce256.

Zobaczymy co czas pokaże.

 

@ sideband

 

Czymś NVIDIA musiała zaszpanować. na samym początku zysk w wydajnosci

mógł być wyraźny. We wrześniu 1999 roku nie było Athlonów XP. Zerknij

na testy - GeForce256 mocno odsadził konkurencję... zwłaszcza w nowych grach.

no tak cofinijmy sie w czasie, voodoo5 bez t&l bylo niemalze porownywalne z geforce2 gts, i to bez t&l, a po co bylo t&l? po to by obciazyc procka i by grafika stala sie niezalezna od proca? jak bylo w rzeczywistosci? tak jak przed t&l. nadal grafika byla zalezna od proca, czyli t&l to byla lipa, to byl tylko pretekst by zniszczyc 3dfx'a, tak jak dzisiejsze vertexy i inne srexy......

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@ cmsydney

VooDoo 5500 było nie niemalże porównywalne tylko w pełni konkurencyjne, a w CD-Action :D test porónawczy był z niemal równymi wynikami, a nawet ze wskazaniem na VooDoo(dostał medal hehe) Inna sprawa ze uwczesne gry raczej nie potrafiły wykorzystać Transformu i Lajtingu :wink:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@ cmsydney

 

Voodoo 5 to 2 procesory, a GF2 tylko jeden. Dostępność kart z serii

Voodoo 5 była znikoma. Ceny fatalne. O czym my tu rozmawiamy.

3dfx zrobił błąd i tyle. Dobił się na amen tym zupełnie wyczerpanym

z magii, lipnym, energochłonnym i potwornie drogim akceleratorem.

Edytowane przez Lumperator

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

cmsydney jednostka T&L nie wystepuje dzisiaj w grafach co nie oznacza ze VS jst do bani bo nie jest. Dzieki niemu programista moze zrobic duzo ciekawych efektow, jednostka VS jest programowalna w przeciwnienstwie do T&L, ktore bylo w GF256/2. W GF3 byla jeszcze taka jednostka T&L aby zapewnic zgodnosc z GF256/2 ale w noszych kartach(chyba od FX'ow(lub juz w GF4 nie pamietam dokladnie) u nVidi i R300 u Ati) nie ma jednostek T&L. Ich zadanie przejal VS. W r300 jak mnie pamiec nie myli VS emuluje stary T&L ktory obecnie nie jest uzwany ze wzgledu np. na to ze nie jest on zalezny od programisty czyli mowiac prosto jest nieprogramowalny. Obecnie wykorzystuje sie tylko VS i karty nie posiadaja jednostki T&L.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

sucker, ale nie myl pojęć VideoShader i ShaderModel. Wprawdzie do

jednego się sprowadza, ale pierwsze odpowiada za przetwarzanie video

z wykorzystaniem potoków cieniujących, a drugie to programowalna

jednostka geometrii i oświetlenia wykorzystywana w grach.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

sucker, ale nie myl pojęć VideoShader i ShaderModel. Wprawdzie do

jednego się sprowadza, ale pierwsze odpowiada za przetwarzanie video

z wykorzystaniem potoków cieniujących, a drugie to programowalna

jednostka geometrii i oświetlenia wykorzystywana w grach.

Nie myle pojec.

Nie wiem skad tobie wzielo sie VideoShader?

Ja caly czas mowie o VertexShader a on jest czescia SM i wraz z PS tworzy SM.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach




×
×
  • Dodaj nową pozycję...