-
Postów
896 -
Dołączył
-
Ostatnia wizyta
Treść opublikowana przez Lumperator
-
G71 Kontra R580, Czyli Czym Zaskoczą Nas Najnowsze Karty.
Lumperator odpowiedział(a) na mastermind-pl temat w Karty graficzne
1. Na początku był Komp 2. Komputery wyznaczają trendy technologiczne. 3. Każdą grę opracowuje się na komputerze 4. Wiele gier na PC rozwija umysł (zwłaszcza gry strategiczne) 5. Komputer służy do wielu rzeczy: grafika, muzyka, filmy, internet, biuro... 6. Każdy "pececiarz" zagra na konsoli, ale nie każdy "konsolowiec" pojmie PC. Konsola to gałąź technologii komputerowej. Urządzenie stworzone wyłącznie dla rozrywki. I w istocie spełnia swoje zadanie. Jednak rozpatrujac to z naszego punktu widzenia, grafika na komputerze jest... MUSI być lepsza. Każdą grę tworzy się na komputerze. Jak narazie ludzkosc nie wymyśliła mądrzejszej maszyny. I tak już pozostanie. -
Jak Odpowiednio Ustawic Equalizery
Lumperator odpowiedział(a) na Wezykowiec temat w Słuchawki, Głośniki, Odtwarzacze, Hi-Fi, Karty Dźwiękowe
Masz sprawne uszy? Chyba tak. Działaj. -
Clatronic to syf. Daruj to sobie.
-
Na wp.pl czytamy: "Kenshi Manabe, szef oddziału firmy zajmującego się półprzewodnikami powiedział, że procesor Cell będzie tak samo dobry, jak Pentium, jeśli nie lepszy" Dalej, na pclab.pl: "Sony może sprzedać nawet 200 mln swoich nowych konsol w ciągu pięciu lat po wprowadzeniu zabawki na rynek. Wynika tak z prezentowanych przez Business Week analiz. W pierwszym roku po prezentacji konsoli do odbiorców trafić miałoby 12 mln zabawek." Dziękuję.
-
Jak Odpowiednio Ustawic Equalizery
Lumperator odpowiedział(a) na Wezykowiec temat w Słuchawki, Głośniki, Odtwarzacze, Hi-Fi, Karty Dźwiękowe
Ustawienie equalizera kolegi dem'a to typowy przykłąd ujażmiania głosników komputerowych najwyzej średniej klasy. W takim sprzęcie jest znacząco przewyższony poziom średnich tonów nad reszta. Ten zakres jest najbardziej słyszalny, wiec wykorzystywany jest w tanich głośnikach, które nie przeniosą nalezycie niskich tonów i nie wzbogacą górnych zakresów detalicznością. Wóczas trzeba sztucznie zawyżać niektóre parametry. 125Hz jak widzimy na screenie jest dość znacznie podniesione do góry. Oznacza to, że "twardy bas" zostanie wzmocniony o kilka decybeli, a wiec zacznie się wybijać. 125Hz jest słyszalne na ogół przy "stopie" lub jak kto woli "kick". Jest to krótkie uderzenie perkusyj- ne nogą w bęben (ten taki najwiekszy -____- sorry ze tak tłumaczę po wiejsku, ale chcę aby autorowi tematu coś tam zaświtało ^^). Nadmiar basu 125Hz spowoduje spory rezonans w pomieszczeniu. Dotyczy to fal o długiej emisji. Wówczas dobiegajaca do sciany i różnych przedmiotów fala zacznie "wbijać" się w nie powodując rozłam. Cześć wpadnie w przedmiot (jeżeli jest szklany to dźwięk szkła będzie słyszalny! ale z reguły szkło reaguje na przedział 40-60Hz), a część odbije się. Fala odbita może się zderzyć z dobiegajacą nową falą i takie zjawisko nazywamy "falą stojącą"... itp. Jest to bardzo uciążliwa sprawa ponieważ doprowadza do niemiłego buczenia w pokoju. Równie męczące są odbicia spowodowane tonami srednimi i wysokimi. W pustym pokoju z gołymi ścianami mamy do czynienia z echem... a w łaściwie z pogłosem który łatwo usłyszeć po klaskaniu. Chyba wiadomo o czym mowa :) Należy to eliminować (tak by pogłos był możliwie najmniejszy). No trochę się zagalopowałem. Jedno jest pewne. Nie możesz kogoś pytać jak powinien być ustawiony equalizer. Te suwaczki są po to aby wzbudzić więcej basu, dodać lub ująć sopranów itp. Każdy to sobie ustawia po swojemu, tak jak się słyszy. Puszczasz swoją ulubioną piosenke w dobrej jakości i kombinujesz. Ze słabych głośników można wymusić całkiem neizłe granie, ale... TO JEST OSZUKANY DŹWIĘK. Tani sprzęt nigdy nie zagra dobrze, ale czasem można wymusić z niego miłe granie (miłe nie znaczy dobre!). Z kolei w dobrych sprzętach jest dobre granie koniec kropka i dobranoc. -
Jak Odpowiednio Ustawic Equalizery
Lumperator odpowiedział(a) na Wezykowiec temat w Słuchawki, Głośniki, Odtwarzacze, Hi-Fi, Karty Dźwiękowe
KJazdy ustawia sobie equalizer wg własnych preferencji. Odbiór dźwięku zalezy od tego jakim sprzętem dysponujemy, jak duży jest nasz pokój, rozstaw głośników i przede wszystki NASZE USZY. 32Hz - podbicie powouje zwiększenie najniższych tonów. W komputerowych zestawach głośnikowych nie mamy szans usłyszeć tak niskiego basu. 60Hz - niskie tony, które pod odbiciu od scian powodują niemiłe buczenie. 100-150Hz - twardy bas (stopa, kick). również po odbicu powoduje buczenie. 500Hz - wysoki bas lub niska średnica. Podbicie powoduje zwiększenie głębi, ale przesadnosć doprowadzi do ogłuszenia dźwięku podstawowego. 1000Hz - 2kHz - najlepiej słyszalne dźwięki. Pozostawmy je w spokoju. 4khz - dodają detalicznosci, ale wymagają dobrego sprzętu. Przy plasti- kowych, tanich głośniczkach wzbudzi się "metaliczność i tępota" dźwięku. 8kHz - 12kHz- można troszkę dodać. Zazwyczaj poprawia się brzmienie. 16kHz i więcej - nie usłyszymy na tanim sprzęcie. -
Cyfra+ I System 5.1. Jak Podlaczyc?
Lumperator odpowiedział(a) na lukadev temat w Słuchawki, Głośniki, Odtwarzacze, Hi-Fi, Karty Dźwiękowe
Ano mogę sie właśnie mylić. Już się miejscami gubie z tymi kartami dźwiękowymi. Soundstorm napewno dekoduje DD5.1 bez udziału procesora głownego, tak więc jest to pełne dekodowanie sprzętowe. nVidia razem z Dolby opracowali dekoder DICE, który poraz pierwszy umieszczono w MCP nVidia nForce Audio Digital - czyli w DSP SS. Pomija on całkowicie udział CPU w przetwarzaniu cyfrowym. Rozkodo- wany sygnał trafia do ramu i stamtąd leci odrazu na SPDiF. Jednak koszty produkcji okazały się zbyt duże i zrezygnowano z tej jedynej w pełni zintegrowanej, pełnowartościowej karty dźwiękowej. -
Cyfra+ I System 5.1. Jak Podlaczyc?
Lumperator odpowiedział(a) na lukadev temat w Słuchawki, Głośniki, Odtwarzacze, Hi-Fi, Karty Dźwiękowe
Ja niestety tego nie wiem. Nie słyszałem X-Fi w akcji. Z tego co wiem, tylko SS ma sprzętowe dekodowanie DD5.1. A jak jest z DPII ? Nie wiem. Trzeba programowo. -
Jedno małe ale. GTX na wejściu nie kosztował 3000 tylko gdzieś około 2200-2400 zł. To jest o 10 baniek więcej niż GF256. Tylko GF256 wyszedł ponad 5 lat temu, miał 1 Ramdac, lipne wspomaganie MPEG-2... itd. Spójrz co sie działo wczesniej. Karty graficzne wcale nie były tańsze. Stanowiły jeden z najdroższych elementów do kompa. A jak ktoś chciał nowego G400Max ? To była potworna kasa - 1300 zł. @cmsydney ATi trochę buja się ze swoimi sterami. nVidia pod tym względem wypada sporo lepiej. Sporo problemów tworzą sami twórcy - za dużo niepotrzebnych kart. Za czasów 3Dfxa nie było takiego bałaganu.
-
Cyfra+ I System 5.1. Jak Podlaczyc?
Lumperator odpowiedział(a) na lukadev temat w Słuchawki, Głośniki, Odtwarzacze, Hi-Fi, Karty Dźwiękowe
Zacznijmy od tego, że ten dekoder wypuszcza dźwięk analogiem stereo. Jeśli dźwięk nadawany jest w systemie DolbySurround, to przy zestawie kina domowego powinien być rozłożony na 5 kanałów (tryb ProLogic II). Kartą dźiękową w kompie nie dasz rady. Nawet gdybyś miał w X-Fi z wejsciem cyfrowym, a w dekoderze wyjscie tego samego rodzaju, to i tak nic by z tego nie wyszło. Brakuje dekoderów 5.1. Jedyna słuszna mozliwość: Dekoder z wyjściem stereo => chinch stereo => amplituner z dekoderem ProLogicII => kolumny. -
No to mów, ze chodzi o gry, które za czasów Voodoo miały lepszy klimat Karta graficzna to tylko elektronika, która pociągnie dany tytuł bądź też nie.
-
"voodoo nie mialo jak ty to piszesz znaczacych argumentow a ludzie nie zwracali na to uwagi, bo raz ze nie mialo to zadnego znaczenia" W marketach mało kto zwraca uwagę na cokolwiek. Co jest to się bierze, magia marketów -_- jako ze nvidia miala gorszy produkt to wykorzystala zla sytuacje 3dfxa i ja wykupila Chyba GO wykupiła a nie ją. Gdyby NVidia miała złą sytuację z TNT i GeForce to nie mieliby kasy z tych produktów i nie wykupiliby 3dfxa, który sprzedawał Voodoo3 jak... ciepłe bułeczki? To ja chyba o czymś nie wiem -_- owszem bylo juz widac upadek 3dfxa ale nadal byla to swietna karta i miala to cos czego geforcom brakowalo, i kolejnym kartom nadal tego brakuje A niby czego im brakuje? Ty chyba naprawdę popadasz w fanatyzm.
-
@cmsydney Jak to same gnioty ?? GF3 to gniot ? GF4 Ti to gniot ? GF6800 to też gniot ? To ja nie wiem co ty chcesz. Jak to patenty 3dfxa na śmietnik? Skąd wiesz co oni wyrzucają na smietnik? Jakoś SLI ożywili. Dumnie nalepiają na to swoje logo bo mają do tego prawo. Jesteś tak bardzo wściekły na nVidię, że do dziś nie chcesz ani jednego GeForce? To może sporóbuj z Radkiem X800. Twój "mocarny" Voodoo5 to przy nim pchła. Voodoo5 to nieporozumienie po całej linii. 3Dfx był wielki, ale wprowadzając Voodoo3 po prostu nie pomyśleli, jak znaczącym argu- mentem w walce o przetrwanie będzie 32 bitowy kolor. Później już było za późno. @KGB 3Dfx to KULT koniec kropka :) nVidię doceniam za nowe podejscie do grafiki. Dzięki innowacjom w GeForce3, dziś mozemy się cieszyć grami w zupełnie nowej szacie. To logiczne, ze postęp miałby miejsce niezaleznie od producenta, ale los chciał, aby to nVidia była jego orędownikiem. Biore też pod uwagę znaczący udział ATi w tym postępie. Ta firma wielem już pokazała i kto wie czym jeszcze nas zaskoczy.
-
Myślę, że przesadzasz z uwielbieniem do 3dfx-a. Gardzisz konkurencją, która okazała się lepsza i zniszczyła twoją ulubiona firmę... ba ona ja wchłonęła. nVidia ma w sobie kawałek 3dfx-a tak jak Creative Aureala. Cóż, teraz obie firmy odświeżają pomysły pionerów sprzed lat. Szkoda, że robią to w otoczce chorego marketingu. Na niektórych reklamach Creative przeczytac możemy: "Jakość twoich mp3 lepsza niż Audio CD" - śmiać się czy płakać ???? Z początku byłem bardzo ciekawy co to jest ten rewolucyjny X-Fi z poprawą jakości mp3, pozycjonoiwaniem dźwięku w słuchawkach itd. Kupa taniego bajeru, część zerżnięta z Vortexa... przereklamowana karta totalnie lolowatymi hasełkami. Przyciąga jednych, odpycha drugich. 3Dfx i tylko 3Dfx. O innym 3dfx nie chcę słyszeć :P
-
To prawda, nVidia lubi robić zamieszanie. Jeszcze gdy starała się o dobrą pozycję na rynku, karty były w porządku. Później zaczęły się sypać szmelce typu GF2 MX 32bit, później GF4 MX, seria FX. Pod presją ATi tworzą też porządne grafy, na których da się jeszcze pograć - GF3, GF4Ti. Nie zgodze się jednak co do 22bitów w Voodoo3 Prawie każda nowa gra na TNT2 wyglądała LEPIEJ niż na Voodoo3! Różnice miedzy trybami 16, 22 i 32 były miejscami małe, a miejscami bardzo duże. Tylko jak mówię, do tego nie każdy przykładał tyle uwagi. Na byle jakim monitorze 15" czasem na lepszym 17" ludzie po prostu nie widzieli różnicy. Ale kto chciał to zobaczył. Kto wie jak wyglądałby rynek, gdyby jednak 3dfx wrzucił duze tekstury i obsługę kolorów w trybie 32 bitów. Nie zgodzę się również co do SM3.0. Moża nazwa nie jest trafna (wystarczyłby ShaderModel 2.1), ale skoro Microsoft dodał to do DirectX, to jakiś sens w tym jest. Ułatwia programowanie ?? Być może, ja programistą 3D nie jestem i ty chyba również ^_-
-
Pomyłka. Rzeczywiscie Voodoo3 było sposród obecnych kart najszybsze. Masz rację, mój błąd. Za szybko chcę skreślić 3dfxa ^_- Ale to nie zmienia faktu, że brak obsługi 32bitów to porażka -_- A tak swoją drogą w 1999 roku zapatrzony byłem tylko w matroxa G400. Nigdy go nie kupiłem przez wysoką cenę (do dziś jest chodliwy na allegro!) Ci co go mieli byli zachwyceni jakością obrazu. RivaTNT2 również oferowała znacznie więcej. Zwolennicy 3dfxa twierdzili, że 32 bitowy kolor nie jest jeszcze potrzebny, zwłaszcza, że powoduje drastyczny spadek wydajności. Kiedyś było inne spojrzenie na grafikę. 32 bitowy kolor był tak potrzebny jak dziś 16xFSAA... czyli dobrze jakby było, ale i bez tego da się grać. Dzisiejsze gry w trybie 16bit wyglądałyby po prostu brzydko. Antyaliasing czeka to samo. Nie bedzie już wyboru - to będzie standard. Poprawiam błędy KGB. faktycznie za bardzo pisane z wytartej pamięci. :wink:
-
Gdyby 3DMark podawał niemiarodajne wyniki, to ludzie przestaliby z niego korzystać. Stare pomysły nie mogą być w kółko odświeżane. Wysoki poziom teksturowania Voodoo5 w niektórych grach, nie usprawiedliwia go z kiepskich wyników w 3DMarku. To samo tyczy się Radeona 8500 i GeForce Ti4200. W 2001SE spisywały się niewiele gorzej od nowych kart typu Radeon 9500! Miejscami nawet Ti4200 był szybszy. Za to w 3DMarku 2003 sytuacja diametralnie się zmieniła na korzyśc nowych kart spod znaku DirectX9. Radeon 9500 - 4 potoki, 1 jednostka teksturująca na potok, PixelShader 2.0 GeForce 4200 - 4 potoki, 2 jednostki teksturujące na potok, PixelShader 1.3 Ktoś musi wyznaczać nowe kierunki. W 1999 roku zrobiła to NVIDIA wprowadzając GeForce256 z silnikiem T&L. Później spory krok naprzód postawiło ATi z rodziną 9500-9800. Ja to widzę tak: 1996 - 3Dfx Voodoo 4MB ....... rewolucyjny akcelerator 3D, całkowity przewrót na rynku gier. 1997 - nVidia Riva 128 .......... Pierwsza karta graficzna ze zintegrowanym akceleratorem 3D. 1998 - 3Dfx Voodoo II .......... znaczące przyśpieszenie. 3Dfx wciąż bezkonkurencyjny. 1998 - nVidia Riva TNT .......... karta, która otworzyła drogę nVidii. 32 bit kolor, wysoka jakość obrazu. 1999 - TNT2, Voodoo3, G400 . i sporo innych. Prowadzi 3dfx, ale przez 16bit kolor traci zwolenników. 1999 - nVidia GeForce 256 ..... wprowadzenie T&L oraz pamięci GDDR. nVidia przejmuje koronę. 2000 - GF2 GTS, Voodoo4/5 ... Znaczące przyśpieszenie GeForce. Powolny upadek 3dfxa. 2001 - nVidia GeForce3 .......... DX8, programowalne shadery, bardzo wysoka wydajność. 2002 - ATi Radeon 8500 ......... Pierwsze uderzenie ATi. Wydajność zbliżona do GF4 Ti4200! 2002 - nVidia GeForce 4 Ti ..... Rozwinięcie wczesniejszej idei. Dla niektórych - GeForce 3,5 2002 - ATi Radeon 9700 ......... DX9, programowalne shadery 2.0, VideoShader, miażdząca przewaga. 2002 - nVidia GeForce FX ........Końcówka roku. Źle zaprojektowany procesor CineFX. Słaba wydajność. 2003 - ATI Radeon 9800 ........ Przyszybszona wersja radeona 9700. ATi wciąż na prowadzeniu. 2003 - Coraz więcej ATi ......... Od Radeona 9200 do Radeona 9800XT. nVidia opracowuje NV40. 2004 - NV 6800, ATi X800 ...... Nowe procesory graficzne. nVidia wprowadza SM3.0 - element DirectX 9.0c. 2004 - SLI, zapowiedź CF ...... Więcej kart z rodziny GF6. Reedycja SLI. Zapowiedź CrossFire od ATi. 2005 - NV 7800 GTX .............. Przedłuzenie linii GF6. 24 potoki, wysokie taktowania. ATi w dołku. 2005 - ATI X1800/1600/1300 . Długo oczekiwana premiera kart z rodziny X1000. Wprowadzenie CrossFire. 2005 - NV 7800 GTX 512 ........ Najszybsza obecnia karta graficzna wykorzystuąca stary już DirectX9. 2006 - G80, R580, PhysX ....... Nowe procesory graficzne, w tym procesor AGEIA do odzwierciedlania fizyki. 10 lat kombinowania ^^ Zauważcie jak wiele się działo w 1999 roku i w 2002 roku. Po roku 2002 prędkość zmalała, za to wzmocnił się marketingowy bełkot. Pojawia się coraz więcej zupełnie niepotrzebnych kart, których wysoka cena i niska wydajność (np. GeForce 6800XT) wprawia sporo osób w zakłopotanie. Jeszcze do czasu GeForce4 dało to się jakoś ogarnąć, ale jak dodaje się mnóstwo dopisków tak, że GF6600 staje się znacznie szybszy od 6800 to już dziadostwo. Największym osiągnieciem w grafice 3D, był wprowadzenie akceleratora 3Dfx Voodoo. W 1999 roku nVidia prezentuje GeForce256 z pamięciami DDR i wyznacza nowy kierunek rozwoju wprowadzając sprzętowe przeliczanie geometrii i oswietlenia (T&L). Wytyczne nVidii zrójnowały 3dfxa, który przeszedł na własność... nVidii. W roku 2001 nVidia poszła jeszcze wyżej - sztywna i w efekcie mało wydajna jednostka T&L została zastąpiona przez programowalne jednostki VertexShader oraz PixelShader Dla starego systemu T&L nVidia pozostawiła trochę tranzystorów :) W ulepszonym silniku nFinite w procesorach GeForce4 zwiększono wydajność shaderów. T&L zostało wyłączone (emulacja z poziomu VertexShader). Kolejną małą rewolucją było wprowadzenie bardzo wygodnych dla programistów shaderów w wersji 2.0. Linia kodu w PS została wydłużona do 160 instrukcji. Dokonało tego ATi w połowie roku 2002. Cienowanie pixeli nabrało zupełnie nowej jakości. Światła i cienie stały się bardziej rzeczywiste. Radeon 9700 nie jest wszakże rewolucją, ale z pewnoscią milowym krokiem w ewolucji gier spod znaku DirectX9. Do dziś powiela się pomysły sprzed 3-ech (R9700), a moze nawet 5 lat! (GF3). Trzeba czekać. Ostatnie słowo jak zwykle należy do Microsoftu ^^
-
Voodoo 5 6000 w kompie: http://www.x86-secret.com/pics/divers/v56k/size_3dfx.JPG Cytat z PCLab.pl: "Gdy bowiem firma ta zaprezentowała karty z serii Voodoo4 i Voodoo5, oferujące w końcu 32-bitowy kolor i tekstury o rozmiarze 2048×2048, NVIDIA już sprzedawała GeForce z pamięciami DDR. Gdy zaś 3dfx na początku 2000 roku zaprezentował Voodoo5 5750, także z pamięciami DDR, NVIDIA miała już gotowy układ GeForce 2 GTS (Giga Texel Shader), który prezentował wydajność i możliwości znacznie większe, aniżeli jego poprzednik. Pokonać najnowszy układ NVIDII mógł już tylko Voodoo5 6000. Wyposażona aż w cztery układy VSA-100 (najsłabszy Voodoo4 4500 miał jeden taki układ, zaś Voodoo5 5000 oraz Voodoo5 5500/5750 po dwa) i 128 MB pamięci karta była prawdziwym gigantem, wymagającym zewnętrznego zasilania. Niestety, równie gigantyczne okazały się też jej koszty produkcji, przez co firmie 3dfx nigdy nie udało się wprowadzić Voodoo 5 6000 do masowej sprzedaży. Co ciekawe, ten „Titanic” akceleratorów z rodziny Voodoo oferował możliwości na tyle duże, że nawet dzisiaj można by na nim zagrać w Quake III Arena osiągając ponad 140 klatek na sekundę w rozdzielczości 1024×768 i 32-bitowym kolorze! Tyle samo oferował dopiero zaprezentowany przez NVIDIĘ na początku 2001 roku GeForce3! " Co prawda to prawda, ale Nature w 3DMarku2001 nie uruchomi ^^ Cytat z PCkuriera: Na rynku pojawiły się już karty 3dfx Voodoo4 4500 oraz Voodoo5 5500. Nie mają one procesorów geometrii (co jest uznawane za ich największą wadę), udostępniają za to pełnoekranowy antyaliasing. Niestety, działa on jedynie w rozdzielczości do 800x600! Wydajność Voodoo5 5500 (karta o dwóch procesorach VSA-100 i 64 MB pamięci) w niskich rozdzielczościach jest o 30-40 proc. gorsza od GeForce 256, zaś w bardzo wysokich rozdzielczościach (1280 x1024 i 1600x1200) - jest o kilka procent lepsza od GeForce 256, jednak gorsza od GeForce2 GTS. Szacuje się, że dopiero Voodoo5 6000 (z czterema procesorami VSA-100 i 128 MB pamięci; w cenie... 600 USD!) wyprzedzi GeForce2 GTS w wysokich rozdzielczościach w aplikacjach, które nie wymagają procesorów geometrii." Cytat z FrazPC "Testy prędkościowe wykazały jednak, że Voodoo5 5500 wcale nie jest tak szybki. W niskich rozdzielczościach (640x480 i 800x600) jego osiągi są dużo gorsze od GeForce 256 - wyraźna przewaga GeForce wynika z użycia przez niego procesora geometrii. W rozdzielczościach 1024x768 i powyżej wyniki uzyskane przez Voodoo5 są minimalnie lepsze od osiągów GeForce 256 z pamięcią DDR. Voodoo5 5500 ma być bezpośrednim konkurentem GeForce2 GTS, jednak przegrywa z nim w każdej rozdzielczości." Chyba teraz sie trochę przejaśniło.
-
Creative Inspire™ T6060 5.1
Lumperator odpowiedział(a) na greeg temat w Słuchawki, Głośniki, Odtwarzacze, Hi-Fi, Karty Dźwiękowe
WoofeR, ale tylnie nie zagrają głośniej, nawet jak fronty wyciszysz do zera ;] -
Tak, to prawda. GeForce3 to porządna karta. Test Nature w 2001SE wywoływał bardzo pozytywne emocje^^ To chyba najbardziej udany GeForce ze wszystkich do tej pory stworzonych. Niestety odrazu nie dało sie zrobic wszytskiego. Jak to okreśił trafnie ChomiK - GF256 dał podwaliny dla współczesnych GPU. Do pewnego momentu były to sztywne zasady. Rozwiniecie idei w postaci programowalnych shaderów znacząco poprawiło skład, ale tory pozostały te same. Zobaczymy dokąd nas zaprowadzą. 40% jej ceny ? :lol2:
-
NVIDIA zbudowała 1 porządny chip, bardzo dobrze wypełniła rynek swoimi produktami. GeForce to był strzał w dziesiątkę. 3dfx nie miał już nic do gadania. Zabawa w kilka procesorów nie ma sensu. Przejechał się na tym 3dfx i ATi ze swoim Fury Maxx. Teraz znowu odgrzewają stare pomysły. Ale zarówno NVIDIA jak i ATo mogą sobie na to pozwolić. Ja osobiscie nie widzę sensu łączenia 2 kart w komputerze. Jeżeli nowa rodzina kart wychodzi co rok, to najwyższy model z tej rodziny będzie szybszy niż najwyższe 2 modele z rodziny poprzedniej (2x6800U < 1xGTX). Oczywiscie zakładajac, że aplikacje wykorzystają potencjał najnowszego produktu. Multi GPU to jest walka o świadomosc klienta, a nie próba najłonienia go do zakupu dwóch kart. Typowy laik jak zobaczy przewagę 2 kart NV przy dwóch kartach ATi spojrzy lepszym okiem na tego pierwszego i pobiegnie do MM za GF 6200 (ja swoją kupiłem z allegro ^____^). Taka jest niestety prawda. Obie firmy wymyslają wiele niepotrzebnych dla nas rozwiązań, tylko po to by wywołać wokół siebie wiecej pozytywnego szumu.
-
Mogłeś tak odrazu powiedzieć. Skrótów w branży IT jest tak wiele, że niektóre z nich zwyczajnie się powtarzają. A skąd ja mogłem wiedzieć, że chodzi ci o Vertexy ? Nieprecyzyjnie to ująłeś. Powinno być SM a nie VS.
-
sucker, ale nie myl pojęć VideoShader i ShaderModel. Wprawdzie do jednego się sprowadza, ale pierwsze odpowiada za przetwarzanie video z wykorzystaniem potoków cieniujących, a drugie to programowalna jednostka geometrii i oświetlenia wykorzystywana w grach.
-
@ cmsydney Voodoo 5 to 2 procesory, a GF2 tylko jeden. Dostępność kart z serii Voodoo 5 była znikoma. Ceny fatalne. O czym my tu rozmawiamy. 3dfx zrobił błąd i tyle. Dobił się na amen tym zupełnie wyczerpanym z magii, lipnym, energochłonnym i potwornie drogim akceleratorem.
-
@ sideband Tą jednostką jest PS 2.0 i VS2.0 (ShaderModel 2.0) które razem z programowalnym procesorem przetwarzania video (VideoShader) tworzą chip. Wydajność tego przetwarzania można wykorzystać przy dekodowaniu DVD, HDTV, wysyłaniu obrazu na TV, encodowaniu video itd. Niestety brak dobrego softu ogranicza niektóre możliwości. Zdaje się że w niemieckim Chipie pokazano wyniki wydajności kompresji MPEG2 => WMV przy wykorzystaniu CPU oraz przy wykorzystaniu technologii AVIVO. ATi udostępniło w wersji beta programik, za pomocą którego dokonano testu. Wyniki - z AVIVO 5x szybciej !!! Stary T&L pozostaje jedynie w specyfikacji DirectX7. ShaderModel2.0 (czyli można by powiedzieć nowe, proste w programowaniu i bardzo wydajne T&L) musi być sprzętowo zgodny ze starym T&L. Jesli by tak nie było, to logiczne, że powstałyby problemy z uruchamianiem gier DX7 z poziomu DX9 na najnowszych kartach.