Skocz do zawartości
Netmann

Agp Pro Oraz Voodoo 5500

Rekomendowane odpowiedzi

@ cmsydney

 

Voodoo 5 to 2 procesory, a GF2 tylko jeden. Dostępność kart z serii

Voodoo 5 była znikoma. Ceny fatalne. O czym my tu rozmawiamy.

3dfx zrobił błąd i tyle. Dobił się na amen tym zupełnie wyczerpanym

z magii, lipnym, energochłonnym i potwornie drogim akceleratorem.

hm.... to mialem szczescie ze go kupilem w sklepie w cenie geforce2gts? jestem zaskoczony

a czy zrobil blad to nie wiem, cos napewno go zniszczylo ale chyba nie dwa procesory, pamietaj ze to jest prawdziwe sli a nie to co teraz nvidia zrobila, przejela patenty i nadal robia gnioty

a czy v5 byl pradozerny? ciagnal ok 80W, tyle co niektore dzisiejsze karty

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Mogłeś tak odrazu powiedzieć. Skrótów w branży IT jest tak wiele, że

niektóre z nich zwyczajnie się powtarzają. A skąd ja mogłem wiedzieć,

że chodzi ci o Vertexy ? Nieprecyzyjnie to ująłeś. Powinno być SM a nie VS.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Mogłeś tak odrazu powiedzieć. Skrótów w branży IT jest tak wiele, że

niektóre z nich zwyczajnie się powtarzają. A skąd ja mogłem wiedzieć,

że chodzi ci o Vertexy ? Nieprecyzyjnie to ująłeś. Powinno być SM a nie VS.

Niech bedzie. Ktos moglby to zrozumiec inaczej, moglem raz napisac VertexShader wtedy nie bylo by niedomowien.

Jednak uzylem skrotu VS specjalnie aby pokazac ze dzisiaj emulacja starego silnika T&L(tego z GF256/2) zajmuje sie jednostka VS a nie SM w sklad ktorego wchodzi jeszcze min. PS.

Do tego jak wspomnialem w GPU GF3 umieszczono jeszcze(oprocz VS) stary silnik T&L z GF'a256/2 aby zapewnic pelna zgodnosc wstecz, ale obecnie nie ma juz tego w GPU bo jest niepotrzebne.

Edytowane przez sucker

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

hm.... to mialem szczescie ze go kupilem w sklepie w cenie geforce2gts? jestem zaskoczony

a czy zrobil blad to nie wiem, cos napewno go zniszczylo ale chyba nie dwa procesory, pamietaj ze to jest prawdziwe sli a nie to co teraz nvidia zrobila, przejela patenty i nadal robia gnioty

a czy v5 byl pradozerny? ciagnal ok 80W, tyle co niektore dzisiejsze karty

 

NVIDIA zbudowała 1 porządny chip, bardzo dobrze wypełniła rynek swoimi produktami.

GeForce to był strzał w dziesiątkę. 3dfx nie miał już nic do gadania. Zabawa w kilka

procesorów nie ma sensu. Przejechał się na tym 3dfx i ATi ze swoim Fury Maxx.

Teraz znowu odgrzewają stare pomysły. Ale zarówno NVIDIA jak i ATo mogą sobie

na to pozwolić. Ja osobiscie nie widzę sensu łączenia 2 kart w komputerze.

Jeżeli nowa rodzina kart wychodzi co rok, to najwyższy model z tej rodziny

będzie szybszy niż najwyższe 2 modele z rodziny poprzedniej (2x6800U < 1xGTX).

Oczywiscie zakładajac, że aplikacje wykorzystają potencjał najnowszego produktu.

Multi GPU to jest walka o świadomosc klienta, a nie próba najłonienia go do zakupu

dwóch kart. Typowy laik jak zobaczy przewagę 2 kart NV przy dwóch kartach ATi

spojrzy lepszym okiem na tego pierwszego i pobiegnie do MM za GF 6200

(ja swoją kupiłem z allegro ^____^). Taka jest niestety prawda. Obie firmy

wymyslają wiele niepotrzebnych dla nas rozwiązań, tylko po to by wywołać

wokół siebie wiecej pozytywnego szumu.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

hm.... to mialem szczescie ze go kupilem w sklepie w cenie geforce2gts? jestem zaskoczony

a czy zrobil blad to nie wiem, cos napewno go zniszczylo ale chyba nie dwa procesory, pamietaj ze to jest prawdziwe sli a nie to co teraz nvidia zrobila, przejela patenty i nadal robia gnioty

a czy v5 byl pradozerny? ciagnal ok 80W, tyle co niektore dzisiejsze karty

wiekszej głupoty nie słyszałem voodoo 5 80wat , voodoo 6500 z 4 gpu nieżle wykreconymi pobierał niecałe 100wat

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

NVIDIA zbudowała 1 porządny chip, bardzo dobrze wypełniła rynek swoimi produktami.

GeForce to był strzał w dziesiątkę. 3dfx nie miał już nic do gadania. Zabawa w kilka

procesorów nie ma sensu. Przejechał się na tym 3dfx i ATi ze swoim Fury Maxx.

Teraz znowu odgrzewają stare pomysły. Ale zarówno NVIDIA jak i ATo mogą sobie

na to pozwolić.

Wtedy 3dfx do gadania nie miał, ale teraz na SLI NV tłucze ciężką kasę.

 

Ja osobiscie nie widzę sensu łączenia 2 kart w komputerze.

Jeżeli nowa rodzina kart wychodzi co rok, to najwyższy model z tej rodziny

będzie szybszy niż najwyższe 2 modele z rodziny poprzedniej

Tyle że:

- Dwie słabsze karty dające podobną moc, co topowa w danym momencie karta kosztują często 40% jej ceny albo mniej

- No i jest też kwestia grupy maniaków, którzy w każdym momencie chcą mieć jak najwydajniejszy sprzęt, więc kupią dwie najwydajniejsze karty, a jak wyjdą jeszcze wydajniejsze, to też je kupią.

- No i jeszcze z czasem SLI pewnie będzie można rozczerzać do więcej niż 2 kart.

- Poza tym jednen kanał PCIex to nie dwa - o ile się nie mylę każdy slot PCIex to osobne połączenie z chipsetem, a nie punkt wejścia do jednej magistrali, więc chyba ich przepustowości się sumują? (Tutaj nie jestem pewien, bo od 2 lat jestem mocno nie na bierząco, a nie chce mi się szperać, więc proszę o sprostowanie)

Edytowane przez Dijkstra

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

CMSYDNEY:

hm.... to mialem szczescie ze go kupilem w sklepie w cenie geforce2gts? jestem zaskoczony, a czy zrobil blad to nie wiem, cos napewno go zniszczylo ale chyba nie dwa procesory, pamietaj ze to jest prawdziwe sli a nie to co teraz nvidia zrobila, przejela patenty i nadal robia gnioty

a czy v5 byl pradozerny? ciagnal ok 80W, tyle co niektore dzisiejsze karty

Tradycyjnie kolega jakies gupoty wypisuje - zaczynam sie zastanawiac czy to oby nie prowokacja...hyhy ;]

 

SUCKER:

Jednak uzylem skrotu VS specjalnie aby pokazac ze dzisiaj emulacja starego silnika T&L(tego z GF256/2) zajmuje sie jednostka VS a nie SM w sklad ktorego wchodzi jeszcze min. PS.

Masz racje ale rzecz w tym ze wlasnie GeForce dal podwaliny wspooczesnym GPU - T&L jako takie sie skonczylo - technologia zostala dalece rozwinieta - inaczej nazwana - ale idea GPU przetwarzajacego grafike "w calosci " coraz dokladniej odzwierciedlajacego rzeczywistosc, pozostala...T&L naprawde bylo milowym krokiem w dziedzinie kart graficznych - choc mysle ze najwiekszym przelomem w tej branzy bylo wprowadzenie do sprzedazy akceleratora voodoo1 [to zeby nie bylo ze 3Dfx nie wnioosl nic od siebie] ;]

 

pozdro...

Edytowane przez ChomiK

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Masz racje ale rzecz w tym ze wlasnie GeForce dal podwaliny wspooczesnym GPU - T&L jako takie sie skonczylo - technologia zostala dalece rozwinieta - inaczej nazwana - ale idea GPU przetwarzajacego grafike "w calosci " coraz dokladniej odzwierciedlajacego rzeczywistosc, pozostala...T&L naprawde bylo milowym krokiem w dziedzinie kart graficznych - choc mysle ze najwiekszym przelomem w tej branzy bylo wprowadzenie do sprzedazy akceleratora voodoo1 [to zeby nie bylo ze 3Dfx nie wnioosl nic od siebie] ;]

 

pozdro...

To czy T&L byl potrzebny czy nie mozna by dyskutowac. Ogolnie uwazam ze nie dawal on takiego kopa jak nVidia starala sie przedstawiac w swoich broszurkach.

Oczywiscie byl to krok na przod w odciazeniu GPU ale daleko nie zaszli bo okazao sie ze w takiej formie jakie wtedy byl ten silnik czyli nieprogramowalny nie pozwalal programistom na wieksza swobode, dlatego powstal VS, w pelni programowalny dzieki czemu programisci dostali cos co mogli samemu zaprogramowac i tworzyc efekty jakie nawet projektantom GPU sie nie snilo(moze to lekka przesad :P).

 

Co do przelomow to ja uwazam ze bylo ich kilka. Ogranicze sie tylko do grafiki 3D.

Pierwszym byla magia Voodoo. Tutaj nie ma co dyskutowac. Byla to karta o ogromnych mozliwosciach, jakosc grafiki niemozliwa do uzyskania na jakiejkolwiek wtedy dostepnej na rynku karcie czy akceleratorze(mowie o rynku komputerow domowych).

Riva TNT byla przelomem ale niewielkim w porownaniu z Voodoo1. Jej zalety to bardzo dobre polaczenie akceleratora 3d i karty graficznej plus niezle sterowniki, wsparcie dla OGL'a i D3D oraz paleta kolorow 32bit'owa i wieksze tekstury. Minus slaba wydajnosc po wlaczeniu 32bit'ow i slabsza wydajnosc od Voodoo2.

Potem przyszedl GeForce256. Tez nie byl to ogromny przelom ale wiekszy od RivyTNT bo producenci graf zaczeli myslec jak tutaj odciazyc procek z niepotrzebnych obliczen i tak wymyslono T&L ale za duzo z tego nie wyszlo ;).

Kolejnym przelomem mozna nawet powiedziec na miare voodoo bylo stworzenie GF3. Ta karta dopiero pokazala kierunek rozwuju przyszlych kart graficznych i ten kierunek do dzisiaj ksztaltuje powstawanie GPU. PS/VS to podstawa projektowania dzisiejszych graf, programisci wykorzystuja mozliwosci SM do tworzenia realistycznych tekstor czy ruchu postaci, morfingu itd. To wszystko zapoczatkowal GF3 w/g mnie ta karte mozna nazwac karta przelomowa na rowni z voodoo.

A moc GF3 mozna zobaczyc w konsoli XBox. Tam ten GPU(lekko podszliowany ;)) pokazuje jaka grafe jest w stanie narysowac :).

 

Kolejnym przelomem ma byc SM4.0 i nowy DX od MS'a. Przelomem bedzie bo nie bedzie zgodny wstecz z tego co pamietam. To minus i plus zarazem. Minus wiadomo jaki a plus to nie przejmowanie sie tym co bylo o proba zrobienia czegos nowego nowatorskiego, inne podejscie do tworzenia grafiki itd. Ale czy bedzie to przelom czy moze zawal to przekonamy sie jak juz bedzie po premierze i jak programisci na to beda sie zapatrywac :)

 

Pozdrawiam.

Edytowane przez sucker

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tak, to prawda. GeForce3 to porządna karta. Test Nature w 2001SE

wywoływał bardzo pozytywne emocje^^ To chyba najbardziej udany

GeForce ze wszystkich do tej pory stworzonych. Niestety odrazu

nie dało sie zrobic wszytskiego. Jak to okreśił trafnie ChomiK - GF256

dał podwaliny dla współczesnych GPU. Do pewnego momentu były to

sztywne zasady. Rozwiniecie idei w postaci programowalnych shaderów

znacząco poprawiło skład, ale tory pozostały te same. Zobaczymy dokąd

nas zaprowadzą.

 

- Dwie słabsze karty dające podobną moc, co topowa w danym momencie karta kosztują często 40% jej ceny albo mniej

40% jej ceny ? :lol2:

Edytowane przez Lumperator

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ej ja mam AGP Pro/8X na mojej Asus A7N8X Deluxe! Mogę z tego jakoś skorzystać ?

Co do 3dfx.. To były piękne czasy! W NFSIII kokpity mogli zobaczyć tylko szczęsliwi posiadacze Voodoo z 12MB na pokładzie! Pamiętam ze największe wrażenie na mnie zrobił RedlineRacer jeszcze za czasów VoodooI 4MB...

z agp pro nie skorzystasz zbytnio

nieprawda ,mialem kokpit na Savage3D - co prawda to ze NFS3 byl robiony pod V2 ,bo max rozdzialka w 3D to 800x600

KGB:

Z twojej wypowiedzi wynika ze to 3Dfx pierwsze zamierzalo wprowadzic jednostkę T&L - o ile dobrze Cie zrozumialem. Gwoli scislosci napisze jedno: 3Dfx zapowiedzialo uklad VSA100 [czip stosowany w V4/5] z obsługa T&L 16-tego listopada 1999. Mialo to miejsce o wiele za poozno - wtedy juz bylo pozamiatane bo NVidia uderzyla zz GeForcem256 31-szego sierpnia 1999. porazka 3Dfx to tylko i wylacznie wina menagmentu tej firmy - mysleli ze trzymaja rynek za jaja i zamiast sie rozwijac zbyt szybko spoczeli na laurach...tymczasem nVidia rozwijajac nowatorskie pomysly znakomicie znalazla sie na rynku coraz szybciej rozwijajacego sie rynku gier komputerowych...

 

pozdro...

wcale z mojej wypowiedzi tak nie wynika

w woli scislosci : 3Dfx nic nie zapowiadal ,najwyzej 3dfx (taka nazwa funkcjonowala od V3 ,czyli przejecia przez 3Dfx'a firmy STB)

wiem ze 3dfx sie przeliczyli ,ale nie mozna powiedziec ,ze T&L niosl ze soba jakies korzysci wtedy - to bylo widac nawet na testach

T&L byl jedynie dobrym poczatkiem jakiegos tam rozwoju w przyszlosci ,a marketing NV zrobil z tego sprawe BYC,albo NIE BYC - nachalne wciskanie kitu zostalo jeszcze niektorym do dzis

tak padl 3dfx - przez glupote ludzi ,kampanie wyborcza :]

bo jezeli T&L mialby dawac taki wzrost wydajnosci ,to jak wytlumaczyc wysoka pozycje wydajnosci V5 5500 ,KYRO i KYRO 2 juz w roku 2002 gdzie przeciez przez 2 lata powinna wyjsc masa gier z wykorzystaniem T&L

jak pisalem ,to byl dobry krok naprzod ,ale nie dyskwalifikujacy ukladow bez niego

dodatkowo wychodzily coraz mocniejsze procesory ,nawet NV zauwazyla ,ze na T&L juz dlugo nie pojada z nabieraniem ludzi i w gf3 wprowadzili dodatkowe "bajery" by sprzedac kolejny produkt z wyzszej polki (gf2 zdazyl staniec :P )

 

P.S.

dx7.0 wcale nie obligowal do posiadania jednostki T&L - KYRO nie posiada ,a jest wpelni zgodne z dx7.0

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

wiekszej głupoty nie słyszałem voodoo 5 80wat , voodoo 6500 z 4 gpu nieżle wykreconymi pobierał niecałe 100wat

to ile ciagnal voodoo5? sam nie wiem bo nie mierzylem, jedynie co to gdzies wyczytalem ze pobiera ok 100W (dwuprocesorowy) dlatego tak strzelilem 80W, jesli duzo mniej to czy ta karta byla erergochlonna? aha ile moze dostarczyc mocy port agp? bo po co bylo to osobne zasilanie karty.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Voodoo 5 6000 w kompie:

 

http://www.x86-secret.com/pics/divers/v56k/size_3dfx.JPG

 

Cytat z PCLab.pl:

"Gdy bowiem firma ta zaprezentowała karty z serii Voodoo4 i Voodoo5, oferujące w końcu 32-bitowy kolor i tekstury o rozmiarze 2048×2048, NVIDIA już sprzedawała GeForce z pamięciami DDR. Gdy zaś 3dfx na początku 2000 roku zaprezentował Voodoo5 5750, także z pamięciami DDR, NVIDIA miała już gotowy układ GeForce 2 GTS (Giga Texel Shader), który prezentował wydajność i możliwości znacznie większe, aniżeli jego poprzednik. Pokonać najnowszy układ NVIDII mógł już tylko Voodoo5 6000. Wyposażona aż w cztery układy VSA-100 (najsłabszy Voodoo4 4500 miał jeden taki układ, zaś Voodoo5 5000 oraz Voodoo5 5500/5750 po dwa) i 128 MB pamięci karta była prawdziwym gigantem, wymagającym zewnętrznego zasilania. Niestety, równie gigantyczne okazały się też jej koszty produkcji, przez co firmie 3dfx nigdy nie udało się wprowadzić Voodoo 5 6000 do masowej sprzedaży. Co ciekawe, ten „Titanic” akceleratorów z rodziny Voodoo oferował możliwości na tyle duże, że nawet dzisiaj można by na nim zagrać w Quake III Arena osiągając ponad 140 klatek na sekundę w rozdzielczości 1024×768 i 32-bitowym kolorze! Tyle samo oferował dopiero zaprezentowany przez NVIDIĘ na początku 2001 roku GeForce3! "

 

Co prawda to prawda, ale Nature w 3DMarku2001 nie uruchomi ^^

 

Cytat z PCkuriera:

Na rynku pojawiły się już karty 3dfx Voodoo4 4500 oraz Voodoo5 5500. Nie mają one procesorów geometrii (co jest uznawane za ich największą wadę), udostępniają za to pełnoekranowy antyaliasing. Niestety, działa on jedynie w rozdzielczości do 800x600! Wydajność Voodoo5 5500 (karta o dwóch procesorach VSA-100 i 64 MB pamięci) w niskich rozdzielczościach jest o 30-40 proc. gorsza od GeForce 256, zaś w bardzo wysokich rozdzielczościach (1280 x1024 i 1600x1200) - jest o kilka procent lepsza od GeForce 256, jednak gorsza od GeForce2 GTS. Szacuje się, że dopiero Voodoo5 6000 (z czterema procesorami VSA-100 i 128 MB pamięci; w cenie... 600 USD!) wyprzedzi GeForce2 GTS w wysokich rozdzielczościach w aplikacjach, które nie wymagają procesorów geometrii."

 

Cytat z FrazPC

"Testy prędkościowe wykazały jednak, że Voodoo5 5500 wcale nie jest tak szybki. W niskich rozdzielczościach (640x480 i 800x600) jego osiągi są dużo gorsze od GeForce 256 - wyraźna przewaga GeForce wynika z użycia przez niego procesora geometrii. W rozdzielczościach 1024x768 i powyżej wyniki uzyskane przez Voodoo5 są minimalnie lepsze od osiągów GeForce 256 z pamięcią DDR. Voodoo5 5500 ma być bezpośrednim konkurentem GeForce2 GTS, jednak przegrywa z nim w każdej rozdzielczości."

 

Chyba teraz sie trochę przejaśniło.

Edytowane przez Lumperator

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

to ile ciagnal voodoo5? sam nie wiem bo nie mierzylem, jedynie co to gdzies wyczytalem ze pobiera ok 100W (dwuprocesorowy) dlatego tak strzelilem 80W, jesli duzo mniej to czy ta karta byla erergochlonna? aha ile moze dostarczyc mocy port agp? bo po co bylo to osobne zasilanie karty.

agp 25wat , agp pro 50wat

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

oczywiscie, bo opierali sie na wynikach z 3dmarka oraz podajze mdk2 (jedna z niewielu gier ktore niby wykorzystywaly t&l) :)

Gdyby 3DMark podawał niemiarodajne wyniki, to ludzie przestaliby z niego korzystać.

Stare pomysły nie mogą być w kółko odświeżane. Wysoki poziom teksturowania

Voodoo5 w niektórych grach, nie usprawiedliwia go z kiepskich wyników w 3DMarku.

To samo tyczy się Radeona 8500 i GeForce Ti4200. W 2001SE spisywały się

niewiele gorzej od nowych kart typu Radeon 9500! Miejscami nawet Ti4200

był szybszy. Za to w 3DMarku 2003 sytuacja diametralnie się zmieniła na korzyśc nowych

kart spod znaku DirectX9.

 

Radeon 9500 - 4 potoki, 1 jednostka teksturująca na potok, PixelShader 2.0

GeForce 4200 - 4 potoki, 2 jednostki teksturujące na potok, PixelShader 1.3

 

Ktoś musi wyznaczać nowe kierunki. W 1999 roku zrobiła to NVIDIA wprowadzając

GeForce256 z silnikiem T&L. Później spory krok naprzód postawiło ATi z rodziną

9500-9800. Ja to widzę tak:

 

1996 - 3Dfx Voodoo 4MB ....... rewolucyjny akcelerator 3D, całkowity przewrót na rynku gier.

1997 - nVidia Riva 128 .......... Pierwsza karta graficzna ze zintegrowanym akceleratorem 3D.

1998 - 3Dfx Voodoo II .......... znaczące przyśpieszenie. 3Dfx wciąż bezkonkurencyjny.

1998 - nVidia Riva TNT .......... karta, która otworzyła drogę nVidii. 32 bit kolor, wysoka jakość obrazu.

1999 - TNT2, Voodoo3, G400 . i sporo innych. Prowadzi 3dfx, ale przez 16bit kolor traci zwolenników.

1999 - nVidia GeForce 256 ..... wprowadzenie T&L oraz pamięci GDDR. nVidia przejmuje koronę.

2000 - GF2 GTS, Voodoo4/5 ... Znaczące przyśpieszenie GeForce. Powolny upadek 3dfxa.

2001 - nVidia GeForce3 .......... DX8, programowalne shadery, bardzo wysoka wydajność.

2002 - ATi Radeon 8500 ......... Pierwsze uderzenie ATi. Wydajność zbliżona do GF4 Ti4200!

2002 - nVidia GeForce 4 Ti ..... Rozwinięcie wczesniejszej idei. Dla niektórych - GeForce 3,5

2002 - ATi Radeon 9700 ......... DX9, programowalne shadery 2.0, VideoShader, miażdząca przewaga.

2002 - nVidia GeForce FX ........Końcówka roku. Źle zaprojektowany procesor CineFX. Słaba wydajność.

2003 - ATI Radeon 9800 ........ Przyszybszona wersja radeona 9700. ATi wciąż na prowadzeniu.

2003 - Coraz więcej ATi ......... Od Radeona 9200 do Radeona 9800XT. nVidia opracowuje NV40.

2004 - NV 6800, ATi X800 ...... Nowe procesory graficzne. nVidia wprowadza SM3.0 - element DirectX 9.0c.

2004 - SLI, zapowiedź CF ...... Więcej kart z rodziny GF6. Reedycja SLI. Zapowiedź CrossFire od ATi.

2005 - NV 7800 GTX .............. Przedłuzenie linii GF6. 24 potoki, wysokie taktowania. ATi w dołku.

2005 - ATI X1800/1600/1300 . Długo oczekiwana premiera kart z rodziny X1000. Wprowadzenie CrossFire.

2005 - NV 7800 GTX 512 ........ Najszybsza obecnia karta graficzna wykorzystuąca stary już DirectX9.

2006 - G80, R580, PhysX ....... Nowe procesory graficzne, w tym procesor AGEIA do odzwierciedlania fizyki.

 

10 lat kombinowania ^^ Zauważcie jak wiele się działo w 1999 roku i w 2002 roku. Po roku 2002 prędkość

zmalała, za to wzmocnił się marketingowy bełkot. Pojawia się coraz więcej zupełnie niepotrzebnych kart,

których wysoka cena i niska wydajność (np. GeForce 6800XT) wprawia sporo osób w zakłopotanie.

Jeszcze do czasu GeForce4 dało to się jakoś ogarnąć, ale jak dodaje się mnóstwo dopisków tak, że

GF6600 staje się znacznie szybszy od 6800 to już dziadostwo.

 

Największym osiągnieciem w grafice 3D, był wprowadzenie akceleratora 3Dfx Voodoo.

W 1999 roku nVidia prezentuje GeForce256 z pamięciami DDR i wyznacza nowy kierunek rozwoju

wprowadzając sprzętowe przeliczanie geometrii i oswietlenia (T&L). Wytyczne nVidii zrójnowały 3dfxa, który

przeszedł na własność... nVidii. W roku 2001 nVidia poszła jeszcze wyżej - sztywna i w efekcie mało wydajna

jednostka T&L została zastąpiona przez programowalne jednostki VertexShader oraz PixelShader

Dla starego systemu T&L nVidia pozostawiła trochę tranzystorów :) W ulepszonym silniku

nFinite w procesorach GeForce4 zwiększono wydajność shaderów. T&L zostało wyłączone (emulacja

z poziomu VertexShader). Kolejną małą rewolucją było wprowadzenie bardzo wygodnych dla programistów

shaderów w wersji 2.0. Linia kodu w PS została wydłużona do 160 instrukcji. Dokonało tego ATi w połowie roku 2002.

Cienowanie pixeli nabrało zupełnie nowej jakości. Światła i cienie stały się bardziej rzeczywiste.

Radeon 9700 nie jest wszakże rewolucją, ale z pewnoscią milowym krokiem w ewolucji gier spod znaku DirectX9.

Do dziś powiela się pomysły sprzed 3-ech (R9700), a moze nawet 5 lat! (GF3). Trzeba czekać. Ostatnie słowo

jak zwykle należy do Microsoftu ^^

Edytowane przez Lumperator

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Lumperator

Moze male dopowiedzenie.

Pierwsze polaczenie grafy 2d i akceleratora yblo wczesniej niz TNT. Probowal to Matrox ze swoim Mystique. W sumie spoko karta ale niezbyt wydajna w 3D(w porownaniu z voodoo wolna) oraz obslugiwala mniej efektow niz voodo.

Potem poraz pierwszy nVidia zaatakowala swoja riva 128(mialem ta karte :D). Karta byla znacznie lepsza w 3D od Mystique ale jakosc grafiki 2D nie byla wzorcowa i Matrox wygrywal tutaj ale w 3D obslugiwane efekty byly te same(lub prawie te same) co w voodoo ale jakosc ogolna byla znacnzie nizsza od tej na voodoo(wiem bo mialem i jedna i druga karte) ale cena tej karty byla nizsza od voodoo i dostawalo sie za nia grafa+akcelerator i tak naprawde to byla pierwsza prawdziwa grafa laczaca dosc dobrze akcelerator i grafike 2D w jednym ukladzie. Ja pominolem ja specjalnie bo w tamtym okresie Riva128 zrobila mala rewolucje ale byla ona mala. Oraz wazna rzecz. Riva128 jako pierwsza karta potrafila przechowywac tekstury w pamieci komputera a grafa byla na PCI. Jednak ta karta miala troche wad a najwieksza wada bylo brak obslugi Glide jednak obslugiwala D3D i OGL i to calkiem znosnie ale jak napisalem wyzej dopiero RivaTNT odniosla prawdziwy sukces bo laczyla ze soba grafike 2D i akcelerator, z dobrej jakosci grafika 2D i 3D a w 3D mozna bylo uzyskac obraz zblizony do kart voodoo a nawet lepszy. Dlatego pominalem Rive128 o ktorej notabene powinienem przynajmniej wspomniec jednak nadal uwazam ze TNT byla wazniejszym produktem bo pierwszy raz tak naprawde pozycja 3dfx'a zostala zagrozona.

To takie male dopowiedzonko, jakby ktos kto nie pamieta tamtych czasow to aby wiedzial ze RivaTNT nie byla pierwsza karta laczaca w sobie grafike 2D 3D.

 

PS

O Voodoo rush nie wspominam bo karta byla w/g mnie nieporozumieniem. Slaba wydajnosc w porownaniu z voodoo, klopoty z kompatybilnoscia z glide(potrzebne osobne patche dla voodoo rush), oraz cena tez nie byla konkurencyjna. W Banshee 3dfx poprawil czesc bledow z Rusha ale wydajnosci(w porownaniu z V2) i niekompatybilnosc(glide nadal potrzebowal czesto osobnych patchow dla Banshee) nadal byly glowna wada tych kart. V3 bylo dopiero pierwsza karta 3dfx'a laczaca grafike 2D i 3D w jednej karcie w bardzo dobry sposob, mimo ze Banshee tez nie bylo zle ale na tamte czasy karta przecietniak.

 

sideband

V5 mialo podobnie jak dzisiejsze karty dodatkowe gniazdo zasilajace gdzie podpinalo sie molexa i karta pobierala cos okolo 80W nie pamietam dokladnie ile. karta jak na tamte czasy byla bardzo pradozerna i potrzebowala dobrego zasilacza 230-250W co w tamtym czasie bylo duzo. A wyzsze modele(4 procesorowe V6 czy jakos tak) mialy nawet zewnetrzny zasilacz. Te karty jak na swoje czasy byly bardzo pradozerne.

Edytowane przez sucker

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

agp 25wat , agp pro 50wat

z tego co wyczytalem to agp pro moglo dac 110W ale niewazne LINK

 

@Lumperator

1999 - TNT2, Voodoo3, G400 . i sporo innych kart (w tym S3 i ATi). Najszybsza TNT2.

dobry dowcip, voodoo3 bylo najszybsze tylko nie mialo 32bit i jakis tam innych zbednych fajerwerkow

 

a 3dmark nie daje wiarygodnych wynikow bo wykorzystuje wszystkie efekty jakie zostaly wymyslone, jak karta tego nie wykorzystuje to odrazu jej wynik jest zdecydowanie mniejszy, 3dmark to test syntetyczny mogacy tylko przetestowac architekture, wydajnosc sie sprawdza w grach

Edytowane przez cmsydney

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

1996 - S3 Virge - pierwsza karta 3D (2 efekty 3D ,ktorych uzycie powodowalo spadek wydajnosci)

1996 - 3Dfx Voodoo 4MB ....... rewolucyjny akcelerator 3D, całkowity przewrót na rynku gier.

1997 - 3Dfx Voodoo II .......... znaczące przyśpieszenie. 3Dfx wciąż bezkonkurencyjny. 1997 - Riva128 ,karta 5D :]

1998 - nVidia Riva TNT .......... zintegrowany akcelerator 3D, 32 bit kolor, duze tekstury 1998 - RivaTNT i Voodoo2 -3Dfx na prowadzeniu

1999 - TNT2, Voodoo3, G400 . i sporo innych kart (w tym S3 i ATi). Najszybsza TNT2.Najszybsze Voodoo3 (juz 2000 bylo szybsze od rivyTNT2 Leadteka z taktowaniem 140MHz ,3000 zamiatalo wszystko co bylo na rynku)

1999 - nVidia GeForce 256 ..... wprowadzenie T&L, GDDR, zdecydowane prowadzenie.Nie takie zdecydowane w stosunku do V3 3500 ,ale fakt ze GF256 ddr byl najszybsza karta

patrz ile spartoliles na poczatku ,w reszte nie wnikalem

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

z tego co wyczytalem to agp pro moglo dac 110W ale niewazne LINK

 

@Lumperator

 

dobry dowcip, voodoo3 bylo najszybsze tylko nie mialo 32bit i jakis tam innych zbednych fajerwerkow

 

a 3dmark nie daje wiarygodnych wynikow bo wykorzystuje wszystkie efekty jakie zostaly wymyslone, jak karta tego nie wykorzystuje to odrazu jej wynik jest zdecydowanie mniejszy, 3dmark to test syntetyczny mogacy tylko przetestowac architekture, wydajnosc sie sprawdza w grach

też widziałem to 110wat i 50wat agp pro ale biore pod uwage 50wat , bo 110wat mało możliwe ,bo z pci-express można pociągnąć 75wat ,a odnośnie kyro , kyro miało t&l ale programowe czyli dało rade uruchomić gre która wymagała t&l dlatego zgodna z dx7 , voodoo 5 nie obsługiwał programowo ani sprzętowo t&l

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

dobry dowcip, voodoo3 bylo najszybsze tylko nie mialo 32bit i jakis tam innych zbednych fajerwerkow

 

a 3dmark nie daje wiarygodnych wynikow bo wykorzystuje wszystkie efekty jakie zostaly wymyslone, jak karta tego nie wykorzystuje to odrazu jej wynik jest zdecydowanie mniejszy, 3dmark to test syntetyczny mogacy tylko przetestowac architekture, wydajnosc sie sprawdza w grach

Pomyłka. Rzeczywiscie Voodoo3 było sposród obecnych kart najszybsze.

Masz rację, mój błąd. Za szybko chcę skreślić 3dfxa ^_- Ale to nie zmienia faktu,

że brak obsługi 32bitów to porażka -_-

 

A tak swoją drogą w 1999 roku zapatrzony byłem tylko w matroxa G400. Nigdy go nie

kupiłem przez wysoką cenę (do dziś jest chodliwy na allegro!) Ci co go mieli

byli zachwyceni jakością obrazu. RivaTNT2 również oferowała znacznie więcej.

Zwolennicy 3dfxa twierdzili, że 32 bitowy kolor nie jest jeszcze potrzebny,

zwłaszcza, że powoduje drastyczny spadek wydajności. Kiedyś było inne spojrzenie

na grafikę. 32 bitowy kolor był tak potrzebny jak dziś 16xFSAA... czyli

dobrze jakby było, ale i bez tego da się grać. Dzisiejsze gry w trybie 16bit wyglądałyby

po prostu brzydko. Antyaliasing czeka to samo. Nie bedzie już wyboru - to będzie standard.

 

 

 

patrz ile spartoliles na poczatku ,w reszte nie wnikalem

Poprawiam błędy KGB. faktycznie za bardzo pisane z wytartej pamięci. :wink:

Edytowane przez Lumperator

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Pomyłka. Rzeczywiscie Voodoo3 było sposród obecnych kart najszybsze.

Masz rację, mój błąd. Za szybko chcę skreślić 3dfxa ^_- Ale to nie zmienia faktu,

że brak obsługi 32bitów to porażka -_-

nie, przy ditheringu 3dfxa (niby 22bit) obraz byl identyczny jak na 32bitach (no chyba ze pod lupa), q3 wygladal identycznie, juz bardziej denerwujacy byl brak obslugi wielkich tekstur

32bit i t&l byly tylko pretekstem do zniszczenia 3dfx, i niestety im sie to udalo, niestety reklama zrobila swoje i nikt nie widzial zalet 3dfxa takich jak: znakomita wydajnosc, swietny obraz, najlepsze stery jakie kiedykolwiek ktos napisal, zero problemow z kompatybilnoscia, glide

oby to samo sie nie stalo z ati, wszyscy psiocza na brak sm3.0 ale komu to jest potrzebne? nvidia potrafi tylko zrobic zamieszanie ale na szczescie im to nie wychodzi, ati chyba ma zbyt silna pozycje na rynku i dobra polityke

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To prawda, nVidia lubi robić zamieszanie. Jeszcze gdy starała się o dobrą pozycję na rynku, karty były w porządku.

Później zaczęły się sypać szmelce typu GF2 MX 32bit, później GF4 MX, seria FX. Pod presją ATi tworzą też

porządne grafy, na których da się jeszcze pograć - GF3, GF4Ti.

 

Nie zgodze się jednak co do 22bitów w Voodoo3

Prawie każda nowa gra na TNT2 wyglądała LEPIEJ niż na Voodoo3!

Różnice miedzy trybami 16, 22 i 32 były miejscami małe, a miejscami bardzo duże.

Tylko jak mówię, do tego nie każdy przykładał tyle uwagi. Na byle jakim monitorze

15" czasem na lepszym 17" ludzie po prostu nie widzieli różnicy. Ale kto chciał

to zobaczył. Kto wie jak wyglądałby rynek, gdyby jednak 3dfx wrzucił duze tekstury

i obsługę kolorów w trybie 32 bitów.

 

Nie zgodzę się również co do SM3.0. Moża nazwa nie jest trafna (wystarczyłby

ShaderModel 2.1), ale skoro Microsoft dodał to do DirectX, to jakiś sens w tym jest.

Ułatwia programowanie ?? Być może, ja programistą 3D nie jestem i ty chyba również ^_-

Edytowane przez Lumperator

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

nie nie jestem (programowianie obiektowe jest do ..... :lol2: ), moze i ulatwolo programistom ale skoro z tego nie korzystaja to po co wmawiac ludziom ze jest jak najbardziej potrzebne? dlatego poi bedzie porzadna konkurencja to nvidii mowie NIE a 3dfx na zawsze pozostanie niedoscignionym wzorem, mojego voodoo5 5500 nigdy nie sprzedam :wink:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dobra może ktos jest zainteresowany Voodoo3 3000 i chciałby kupić , bo umnie to leży.

Nawet kiedys zrobiłem zrzut z everesta co i jak tam było. Ale teraz nie mam do tego dostępu ale wiem że karta miała chyba 1 potok i w porównaniu do radeona 9800 to była przepaśc.

Jak dla mnie Voodoo 3 3000 to jest świetna karta. Można zagrać we wszystkie tytuły z roku 99 lub 2000. Pamiętam że Max Payn dopiero ja przymulał a tak to UT Q3 return to castle Wolfenstain i wiele innych gierek śmigało aż miło. Divx też na niej wygląda super.

Największa wada to brak sterowników pod Win XP (orginalnych)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

eeee ja gralem w maxa na v3 2000 i chodzil zupelnie przyzwoicie a stery oryginalne to sa i zawsze byly, pamietaj ze po wykupieniu 3dfx'a stery byly pisane nadal przez programistow 3dfxa tyle ze pod inna nazwa, i one nie mialy tylko podpisu cyfrowego microsoftu ktory jest nam bardzo potrzebny, pod xp voodziak dzialal bez zadnych problemow

btw: ile chcesz za te karte? za 20pln to byl jeszcze wzial a chetnie bym kupil voodoo3 3500

Edytowane przez cmsydney

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Myślę, że przesadzasz z uwielbieniem do 3dfx-a. Gardzisz konkurencją,

która okazała się lepsza i zniszczyła twoją ulubiona firmę... ba

ona ja wchłonęła. nVidia ma w sobie kawałek 3dfx-a tak jak Creative

Aureala. Cóż, teraz obie firmy odświeżają pomysły pionerów sprzed lat.

Szkoda, że robią to w otoczce chorego marketingu. Na niektórych

reklamach Creative przeczytac możemy:

 

"Jakość twoich mp3 lepsza niż Audio CD" - śmiać się czy płakać ????

 

Z początku byłem bardzo ciekawy co to jest ten rewolucyjny X-Fi

z poprawą jakości mp3, pozycjonoiwaniem dźwięku w słuchawkach itd.

Kupa taniego bajeru, część zerżnięta z Vortexa... przereklamowana karta

totalnie lolowatymi hasełkami. Przyciąga jednych, odpycha drugich.

 

3Dfx i tylko 3Dfx. O innym 3dfx nie chcę słyszeć :P

Edytowane przez Lumperator

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

odnośnie kyro , kyro miało t&l ale programowe czyli dało rade uruchomić gre która wymagała t&l dlatego zgodna z dx7 , voodoo 5 nie obsługiwał programowo ani sprzętowo t&l

jakie tam programowo?

takie programowe to moze miec i Virge jak ktos napisze - T&L w calosci odwali procesor

chodzi o to ze KYRO wyszlo w 2001r i bez T&L rozwalalo swiezutkiego "pelnego" gf2mx400 (175/200) ,przy czym za Herculesa (125/125) w komputroniku dalem 275pln ,a najtanszy no-name gf2mx200 kosztowal 312pln

pomyslalem sobie - a,kupie na probe (brakowalo mi 100pln do gf2gts) no i tak probowalem przez 4 lata B)

 

Lumperator

moze i cmsydney jest fanatycznym wyznawca voodoo ,ale ty tez palasz miloscia do Nvidii :razz:

 

a przeciez najlepsza firma robiaca grafy ,nie zbankrutowala ,nikt jej nie wchlona ,jej technika jest wciaz niedoscigniona ,wiec pytam sie:

gdzie jest do cho.le.ry KYRO 3 ? :angry: dlaczego PowerVR sobie odpuscilo <_<

Edytowane przez KGB

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

tylko kyro miał specjalny program do emulacji t&l , pozostałe karty nie wspierające t&l nie miały możliwości emulacji t&l , bo nie było programu do emulacji t&l

voodoo mialo opcje w sterownikach, wiem bo mialem i sprawdzalem

 

moze i cmsydney jest fanatycznym wyznawca voodoo ,ale ty tez palasz miloscia do Nvidii

wyznawca nie ale sentyment mam, bo 3dfx robil najlepsze karty, teraz widzac to co nvidia robi to mozna sie zalamac, same gnioty, wszysttkie swietne patenty 3dfxa poszly na smietnik, nic nie wykorzystali, ati tez nie jest duzo lepsze...... ehhh

Edytowane przez cmsydney

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach




×
×
  • Dodaj nową pozycję...