romek Opublikowano 30 Października 2009 Zgłoś Opublikowano 30 Października 2009 Wielkimi krokami zbliża się premiera nowych kart graficznych firmy Nvidia – Fermi, o kodowej nazwie GT300. Układu, który ma być odpowiedzią giganta na premierę akceleratorów konkurenta - ATI/AMD z serii 5800. W Internecie aż huczy od plotek na temat specyfikacji, poprzez nawet sfingowaną, jak uważają poniektórzy, prezentację układów GT300. Każdy zadaje sobie pytanie, co tym razem zaprezentuje gigant z Santa Clara; czy będzie to zupełnie nowy układ pod względem technologicznym, zaprojektowany od nowa, czy też kolejny odgrzewany kotlet, jakich niemało w historii firmy… Póki co zapowiedzi samej Nvidii zdają się potwierdzać to pierwsze przypuszczenie, ale jak będzie naprawdę dowiemy się zapewne wtedy, gdy do naszych rąk trafi w końcu karta wyposażona w układ GT300. Tymczasem jest to odpowiedni moment, by podsumować działalność „twórczą” firmy Nvidia i dowiedzieć się, jak przez te 16 lat gigant z Santa Clara zmienił nasze wyobrażenie na temat układów graficznych, które na początku miały służyć jedynie do wyświetlania obrazu na ekranie monitora.Autor: Sergiusz - Łukasz Michalik Pełna treść publikacji pod tym linkiem. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
sideband Opublikowano 30 Października 2009 Zgłoś Opublikowano 30 Października 2009 No to zaczynamy :wink: . "W porównaniu do swoich poprzedników GeForce 3 posiadał sprzętowy menedżer pamięci znany jako LMA (Lightspeed Memory Architecture), który został zaprojektowany do redukcji przekraczania dozwolonej przepustowości pamięci poprzez kompresję Z-buffer oraz lepsze zarządzanie szyną pamięci" Raczej pasmem pamięci :wink: . "Nvidia jako pierwsza wprowadziła do nowego układu obsługę Shader Model 3.0, który był rozszerzeniem Shader Model 2.0 min. o nowy standard 32 bitowy zmienno-przecinkowej precyzji (FP32) oraz dynamiczne rozgałęzianie zwiększające efektywność i długość trwania cieni (shaderów)" Wprowadzenie fp16 i fp32 za pomocą których można tworzyć m.in Hdr Lighting. "Do ważniejszych nowości można również zaliczyć HDR lighting, radiosity, subsurface scattering oraz technologię Extreme HD" Ke?? Te samo efekty obsługuje GF6 , w GF7 jedynie minimalnie poprawiono architekturę z GF6 , co przyczyniło się , że gpu tak nie siadał z włączonym Hdr-em. To samo tyczy się TSAA i TMAA. Teraz czas na GF8. Po pierwsze wkładanie do jednego worka G80 i G92 to spory błąd. Po drugie opisywanie Cuda w sekcji o GF8 to także błąd , bo ta technologia została wprowadzona za czasu GT200. Po trzecie nie ma opisanych zmian między G80 , a G92 - zmiany w ropach i tmu oraz wprowadzenie obsługi fp64. A co do tmu to nie można napisać , że G80 ma 64tmu - bo ma 64TF/32TA , G92 ma pełne 64tmu - 64TF/64TA. GT200 To jest kontynuacja architektury z G9x , z małą korektą - zwiększenie wydajności przy fp64 , nie architektury z GF8 - pod nazwą GF8 kryją się chipy G80 i G92. Narazie tyle :wink: Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Dammeron Opublikowano 30 Października 2009 Zgłoś Opublikowano 30 Października 2009 Tak naprawdę to w pełni zgodne z DX9 były dopiero Geforce'y z serii 7. Opisywane to było w kilku artykułach: nVidia w GF FX oraz serii 6 zmniejszała precyzję kolorów do 16bit (specyfikacja DX9 wymagała 24bit), by podnieść trochę szybkość renderingu, i móc nadążyć za ATI serii 9 oraz X8** (dla porównania karty czerwonych miały 32bit precyzję). Stąd też była ta niesławna, gorsza jakość obrazu, którą zarzucano nV. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość Harry Lloyd Opublikowano 31 Października 2009 Zgłoś Opublikowano 31 Października 2009 O super, uwielbiam takie artykuły, nie raz sobie lubie przeglądać newsy sprzed lat, a tu wszystko o NV w jednym miejscu. Będzie co czytać. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gregu Opublikowano 2 Listopada 2009 Zgłoś Opublikowano 2 Listopada 2009 fx nie obslugiwal w pelni d9 dlatego tez ta karta tak kulała w 1 dx9 grze jaka był tomb raider(nie pamietam rozszerzenia) i BF2 Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
david11 Opublikowano 2 Listopada 2009 Zgłoś Opublikowano 2 Listopada 2009 No bardzo ładny artykuł. Widać że piszący ma sporą wiedzę na ten temat ;). Ja tyle nie wiedziałem :P. Pozdrawiam. P.S Może teraz to samo tyle że z kartami ATi? Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
TomaszPaweł Opublikowano 2 Listopada 2009 Zgłoś Opublikowano 2 Listopada 2009 STG 2000/NV1 czyli praprzodek dzisiejszych akceleratorów jest to seria pierwszych układów graficznych stworzonych przez firmę Nvidia, z czasów przed pojawieniem się serii Riva oraz GeForce. Układy te pojawiły się na rynku w 1995 roku i były projektowane i wytwarzane do 1999 r. Nvidia NV1 powstała dzięki współpracy firm Nvidia oraz SGS-THOMSON Microelectronics. Był to pierwszy w pełni multimedialny akcelerator PCI dostarczający w czasie rzeczywistym foto-realistyczną grafikę 3D, full-motion video i efekty specjalne. Został wprowadzony do sprzedaży w 1995 r. pod nazwą Diamond Edge 3D na licencji EDGE Games. Firma Nvidia wypuściła układ pod nazwą NV1 współpracujący z pamięciami VRAM, natomiast firma SGS-THOMSON sprzedawała go pod nazwą STG 2000 w wersji z pamięciami DRAM. Układ ten posiadał rdzeń graficzny obsługujący w pełni tryb 2D/3D bazujący na quadric texture mapping. Warto wspomnieć, że układ NV1 jako pierwszy został wykorzystany w niezwykle popularnej jak na owe czasy konsoli Sega Saturn. Śmiać się czy płakać?! Ale w sumie artykuł mi się podoba - dobrej jakości zdjęcia - i ten czas Zaduszek - Wspominek... Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
q8ic Opublikowano 2 Listopada 2009 Zgłoś Opublikowano 2 Listopada 2009 Nie sądzę żeby taki tekst miał sens bez jednoczesnego odniesienia się do konkurencji w czasie. Inna sprawa, że to była by iście tytaniczna praca ;p Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
sideband Opublikowano 2 Listopada 2009 Zgłoś Opublikowano 2 Listopada 2009 Tak naprawdę to w pełni zgodne z DX9 były dopiero Geforce'y z serii 7. Opisywane to było w kilku artykułach: nVidia w GF FX oraz serii 6 zmniejszała precyzję kolorów do 16bit (specyfikacja DX9 wymagała 24bit), by podnieść trochę szybkość renderingu, i móc nadążyć za ATI serii 9 oraz X8** (dla porównania karty czerwonych miały 32bit precyzję). Stąd też była ta niesławna, gorsza jakość obrazu, którą zarzucano nV.O czym ty pleciesz nvidia sztucznie wymuszała 16bitowe textury by podbić wydajność było częste za czasu fx-ów i nie pisz bredni , że to gf7 dopiero było w pełni zgodne z dx9 - nawet nie pisząc z jakim , w tej kwestii gf6=gf7. fx nie obslugiwal w pelni d9 dlatego tez ta karta tak kulała w 1 dx9 grze jaka był tomb raider(nie pamietam rozszerzenia) i BF2 A wiesz , że było kilka wersji dx9 - a , b , c . Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
stolara Opublikowano 2 Listopada 2009 Zgłoś Opublikowano 2 Listopada 2009 (Graphical Procesing Unit) hmm chyba raczej - graphics processing unit Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
luchuma Opublikowano 3 Listopada 2009 Zgłoś Opublikowano 3 Listopada 2009 hmm chyba raczej - graphics processing unitraczej nie :P btw zabraklo mi wzmianki o gf 2 i 4 MX, o ukladach zintegrowanych z plytami glownymi, gf go oraz ION Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
sideband Opublikowano 3 Listopada 2009 Zgłoś Opublikowano 3 Listopada 2009 (edytowane) To niezły z ciebie spec i jakieś nowe pojęcia wymyślasz :lol: . A ten cały art świadczy o tym , że ten człowiek nie wie o czym pisze . I ciekawe kiedy te 64ropy znikną w tabeli odnośnie G80 :lol2: oraz inne bambole w tej samej tabelce. Edytowane 3 Listopada 2009 przez sideband Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Megabyte Opublikowano 3 Listopada 2009 Zgłoś Opublikowano 3 Listopada 2009 Teraz czas na GF8. Po pierwsze wkładanie do jednego worka G80 i G92 to spory błąd. Po drugie opisywanie Cuda w sekcji o GF8 to także błąd , bo ta technologia została wprowadzona za czasu GT200. Po trzecie nie ma opisanych zmian między G80 , a G92 - zmiany w ropach i tmu oraz wprowadzenie obsługi fp64. A co do tmu to nie można napisać , że G80 ma 64tmu - bo ma 64TF/32TA , G92 ma pełne 64tmu - 64TF/64TA. Rzeczywiście pomiędzy G80 i G92 jest kilka różnic, także pod kątem CUDA. Może lepiej było je opisać oddzielnie. Technologia CUDA została wprowadzona razem z G80 a nie GT200 oczywiście. Chyba przespałeś kilka lat ;) Śmiać się czy płakać?! Ale w sumie artykuł mi się podoba - dobrej jakości zdjęcia - i ten czas Zaduszek - Wspominek... Tak jak wyżej artykuł ogólnie dobry, ale tekst "Był to pierwszy w pełni multimedialny akcelerator PCI dostarczający w czasie rzeczywistym foto-realistyczną grafikę 3D" jest bardzo śmieszny zwłaszcza że można się kłócić czy na takim GT200 da się uzyskać foto-realistyczna grafikę w czasie rzeczywistym. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
sideband Opublikowano 3 Listopada 2009 Zgłoś Opublikowano 3 Listopada 2009 Technologia CUDA została wprowadzona razem z G80 a nie GT200 oczywiście. Chyba przespałeś kilka lat ;)Ke??? Cuda wprowadzono wraz z premierą GT200 , pierwszy sterownik mający cuda to 177.26 - pierwszy z obsługą GT200 i Cuda. Także pisz o faktach , bo w tej kwestii to mnie nie zagniesz :wink: Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
stolara Opublikowano 3 Listopada 2009 Zgłoś Opublikowano 3 Listopada 2009 raczej nie :Pjesteś kolejnym który się myli ... klyyyyyk Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Serchio Opublikowano 3 Listopada 2009 Zgłoś Opublikowano 3 Listopada 2009 Tak tak to po mnie tak jedziecie :) Odnośnie foto-realistycznej grafiki - nie ująłem tego w cudzysłów, i nie wspomniałem - że tak w specyfikacji układu podała Nvidia - miała to być ironia, następnym razem w subtelniejszy sposób postaram się to podkreślić... :) Jeżeli chodzi o CUDA, fakt faktem zostały one wprowadzone wraz z premierą GT200, ale stwierdziłem, że skoro GeForce 8 również je obsługiwał z racji swojej architeORT: ORT: ktury, na której bazuje GT200 to postanowiłem wspomnieć o tym właśnie przy okazji opisywania GeForce 8... Tak, poprawnie powinno być: Graphics Processing Unit... Nie chciałem opisywać wszystkiego, a jedynie tzw. "kroki milowe", popełniłem parę błędów, o paru rzeczach nie wspomniałem, być może nie zawsze trafiłem na rzetelne źródło i stąd niektóre kwiatki - miałem trochę przerwy jeżeli chodzi o nowinki technologiczne z racji braku stacjonarki i studiów - nie usprawiedliwiam się... Wszelka krytyka się przyda, następnym razem postaram się nie popełniać już takich "karygodnych" błędów i fakt faktem, gdybym chciał opisać wszystko to art miałby z 60 stron... W pierwotnej wersji i tak był obszerniejszy, wyjaśniał wiele pojęć (wtedy to by mi się dopiero dostało, że swoimi słowami wytłumaczyłem coś inaczej niż napisane jest w sieci... :P ). Pozdrawiam Sergiusz Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Megabyte Opublikowano 3 Listopada 2009 Zgłoś Opublikowano 3 Listopada 2009 (edytowane) Ke??? Cuda wprowadzono wraz z premierą GT200 , pierwszy sterownik mający cuda to 177.26 - pierwszy z obsługą GT200 i Cuda. Także pisz o faktach , bo w tej kwestii to mnie nie zagniesz :wink:Musiało Ci się coś pomylić. Aż odwiedziłem stronę nvidii żeby podać Ci konkretne daty. Tak więc zaczynamy 10 listopada 2006 - premiera G80 razem z przedstawieniem technologii CUDA. Osobiście dla mnie to jest wprowadzenie CUDA bo w końcu były już wtedy publiczne bety CUDA. Ale ok, można się przyczepić że to w końcu beta. 26 czerwca 2007 - wydanie stabilnej wersji CUDA 1.0. Co prawda trzeba oprócz sterownika instalować CUDA Toolkit no ale bez przesady, mamy stabilną wersje, ta wersja jest dostępna ze strony nvidii, bez żadnych rejestracji ani nic. 11 grudzień 2007 - wydanie wersji 1.1 CUDA. Wersja wykonawcza zostaje wydzielona z toolkita i zintegrowana ze sterownikiem. Hmmm, a o GT200 jeszcze cicho. 16 czerwca 2008 - premiera GT200 i CUDA 2.0 Tak więc jak widzisz z premierą GT200 wprowadzono drugą wersje CUDA a nie CUDA w ogóle. Jak widać zagięcie Ciebie było dość proste ;) pozdro :) UPDATE: A i odnośnie pierwszego stabilnego sterownika z CUDA to był to 169.21 i on zdecydowanie GT200 nie obsługiwał. Cytat z informacji bezpośrednio od nvidii (z dnia 11 grudnia 2007) CUDA version 1.1 is now released. The toolkit and sdk have been updated since the beta release, so please install these newer versions. There is a new CUDA Zone on the NVIDIA web site http://www.nvidia.com/object/cuda_home.html The downloads are under "Get CUDA" There is are also new ForceWare Release 169.21 Windows drivers available today that should be used with CUDA on Windows Edytowane 3 Listopada 2009 przez Megabyte Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
sideband Opublikowano 3 Listopada 2009 Zgłoś Opublikowano 3 Listopada 2009 Dobra żle się wyrazłiem dopiero od premiery gt200 , cuda było konkretniej rozwijane. Za czasu gf8/9 takie coś jak cuda można powiedzieć nie istniało , prócz tego sterownika co podałeś to dostępny był sterownik 174.55 z cuda - kwiecień 2008. Także pisząc , że cuda zostało oficjalnie wprowadzone za czasu gt200 nie jest błędem. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Megabyte Opublikowano 3 Listopada 2009 Zgłoś Opublikowano 3 Listopada 2009 Dobra żle się wyrazłiem dopiero od premiery gt200 , cuda było konkretniej rozwijane. Za czasu gf8/9 takie coś jak cuda można powiedzieć nie istniało , prócz tego sterownika co podałeś to dostępny był sterownik 174.55 z cuda - kwiecień 2008. Także pisząc , że cuda zostało oficjalnie wprowadzone za czasu gt200 nie jest błędem.Dla mnie zdecydowanie jest błędem. Wprowadzenie oznacza dostarczenie czegoś czego nie było wcześniej, a CUDA były dostępne publicznie wcześniej. Rozumiem o co Ci chodzi ale na to jest inne określenie, np: upowszechnione. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
sideband Opublikowano 3 Listopada 2009 Zgłoś Opublikowano 3 Listopada 2009 Tak to miałem na myśli - rozpowszechnienie i jakby nie było , zostało oficjalnie wprowadzone do sterowników. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
TomaszPaweł Opublikowano 4 Listopada 2009 Zgłoś Opublikowano 4 Listopada 2009 Już w 2008 roku liczyłem na GPU w GPUGRID dzięki CUDA.... Upowszechnienie jest kwestią dyskusyjną, bo jakby popatrzeć na ogół urzytkowników to do chwili obecnej upowszechnilo się może w 5%... które są świadome, że CUDA istnieją i potrafią z nich korzystać... LINK 18 Aug 2008 Tak naprawdę rozkwit CUDA nastąpił w tym roku.... a aplikacji uzytkowych nadal jest jak na lekarstwo.... Sądzę że 2010 ze wzgledu na OpenCL będzie rokiem aplikacji uzytkowych dla GPU... Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Derick Opublikowano 5 Listopada 2009 Zgłoś Opublikowano 5 Listopada 2009 Fajny artykuł o historii technologi 3D w jednej firmie. Lubie takie, ale szkoda że ma sporo błędów, przeinaczeń i niedomówień. Tak trochę wychodzi na to, że Nvidia to był pionier nowinek w układach graficzny a tak nie było, bo sporo innowacji jako pierwsze wprowadzały i inne firmy jak 3Dfx, S3, Ati, czy nawet VideoLogic, 3DLabs. Nie wszystkie dobre się przebiły, ale tak jest zawsze w branzy elektronicznej... No i na pewno Nv1 to nie był akcelerator 3D a tylko 2D i nazywał się multimedia akcelerator a że potrafił nakładać tekstury i chyba filtrował linearnie, to foto realistycznie wyświetlał fotki a nie grafike 3D. :) Nie wiem skąd to zostało wzięte, ale na bajdurzeniach marketingowców nie ma co się opierać. Wszystkie funkcje, efekty 3D do DirectX 4 realizował procesor. Dopiero od dx 5 chipy graficzne zaczeły sprzętowo przetwarzać, z bodajże 10ciu, kilka funkcji 3D: S3 Virge, 3Dfx VooDoo, Nvidia Riva128. Ati Rage, takich jak; siatki wielokątowe, dwuliniowe filtrowanie tekstur, mipmapping, bufor głębokości (Z buffer), więc pisanie że NV1 dostarczał grafike trójwymiarową jest de fakto nieuprawnione. ;) Gdybym ja miał napisać taki artykuł, to przewertowując net w połączeniu z moją wiedzą byłby sporo dokładniejszy, ale wiem że są dużo lepsi ode mnie w tej dziedzinie, ale pewnie i sporo drożsi :rolleyes: Gdzie jest TNT 1 /16MB? TNT to był DX6 a TNT2 DX 6.1 Od serii powyższych chipów zaczęła się era oszukiwania na funkcjach akceleracji poprawy obrazu. TNT/TNT2 nie potrafiło poprawnie filtrować trójliniowo (przynajmniej pod DX, bo nie wiem jak było w OGL) a stosowało aproksymacje - kiedy konkurenci implementowali tą funkcje prawidłowo. Porównywałem swego czasu jakość filtrowania w Unrealu (DX), na moim sprzecie - miałem S3 Savage4 a znajomy przyniósł TNT2 i było to dobitnie widać. Zresztą ówczesny spec od grafik niejaki sławny 'Fachman' obnażał wszystkie niedociągnięcia w grafikach, jak obecnie do niedawna robił to Focus. Potem GeForce 256 kiepsko realizował kompresje tekstur s3tc (jakość wynikowa), którą pożyczył sobie od S3 Savage 3D. ;-) Za to Ati RageMAXX, który też zapożyczył, zaimplementował ją świetnie. Nie mówiąc już, że bałwochwalstwo firm, które mając w swych chipach takie oto wypasione funkcje jak; antyalising, anizo, czy duże wysokorozdzielcze, niekompresowane tekstury 2048x2048, nijak nie mogły błyszczeć nawet w starszych uwczesnych grach, bo były po prostu zbyt wymagajace jak na możliwości układów 3D, ale świetnie paliły oczy w reklmówkach. Od powyższej serii zaczeła się era kastratów i rasowańców w postaci TNT 2 M64 (64bit szyna), TNT 2 Ultra. Następnie poszły do piachu, świetne natywne API sprzętowe jak Glide 3DFX'a (szybkość), czy Metal S3 (jakość randeringu sceny 3D), bo beznadziejny Direct 3D, który marnował połowe mocy chipów graficznych, za pomoca siły Microsoftu, zaczął powoli dominować. Kompensacje ruchu z 4 istotnych funkcji wspomagajacych dekompresje mpeg2, miał przed GeForcem 256, S3 Savage 4, tak jak i kompresje tekstur s3tc. No, ale wiadomo że to historia Nvidii a nie całego przemysłu konsumenckich chipów 3D. :-) GeForce Fx w pełni wspierał dx9 tylko na papierze, bo w praniu robił to bardzo kiepsko, więc dostawał lanie od konkurencji. Dopiero Fx PCX 5900 i 5950 miał poprawioną implementacje dx9 i tam było już dobrze. GeForce 6 miało 16x filtrowanie anizo, ale co z tego jak mało wydajne i Ati wtedy biło tą funkcją w testach NV. Dalej PureVideo w pierwszej wersji wspierało tylko WMV, MPEG-2 i H264, dopiero późniejsze usprawnienie w PureVideo HD dekoduje VC1, ale przy wsparciu CPU. Co do technologi CUDA, to niedawno wywaliłem z dysku starą instalke sterownika grafy, z beta wersją CUDA i teraz nie pamiętam jej numerka, ale technologia jest od dawna a teraz ma na czym działać. Sprawdzić to można w każdym popularnym playerze video, który ma możliwość zapodania mu zewnętrznych dekoderów jak MPC- HC, GOM, VLC, czy innych. - zainstalować stery conajmniej pierwsze VHQL seri 190.XX, lub ostanie sideband'a, w moim przypadku XP 32bit. - najnowsze toolkity CUDA w wersji 2.2, lub 2.3beta. - zainstalować najnowszą wersje dekodera CoreAVC Pro, który ma Nvidia CUDA GPU SUPPORT. http://coreavc.com/ Odpalić playera - zablokować internalne dekodery a wskazać external codec AVC i po odpaleniu materiału w formatach kompresji MPEG-4, pokaże się ikona w trayu - na zielono CUDA działają, na niebiesko nie'use'ują. Zresztą inne decodery, które dekodują przez DXVA też operuja już na gpu i u mnie na DC 1.8@3Ghz zużycie procka średnio wynosi około 20% przy 8800GT, - .mkv 720p H264, formacie kolorów RGB32 i bitrate sięgającym w szczytach do 20Mbps + matroska spliter i DTS AC3 filter, czyli mocno wymagającym kontenerze i poprawiaczach obrazu, bo gdy puszcze nie poprzez render matroski a zwykle overlay mixer, to zużycie spada do 3-10% ze wspomaganiem GPU - czyli niemal cały procek wolny dla innych zadań. Jakie funkcje mają wspierające materiał wideo, poszczególne starsze chipy Nvidia, widać w tabelce z archiwalnego artykułu o PureVideo - który jest gdzieś na Frazie. Logiczne dedukując, CUDA po prostu anektowały oprogramowanie PureVideo, gdzie zaprzęgnięto do obliczeń dzisiejszą, lepszą architekture chipów graficznych od serii 8, które mają już pełne wsparcie sprzętowo wspomaganego procesu dekodowania i poprawiania obrazu a co więcej pozwoliły obcym firmom poprzez tą technologie korzystać z GPU a nie tylko CPU. CUDA liczą też fizyke na GPU i wywodzą się po cześci właśnie od technologi PhysX Ageia (drugi aneks), dlatego obsługa fizyki jest dostępna od GF 8. Sorry jak gdzieś się pomyliłem, ale pisze to z pamięci i najwyżej ktoś mnie w czymś poprawi. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
luchuma Opublikowano 5 Listopada 2009 Zgłoś Opublikowano 5 Listopada 2009 jesteś kolejnym który się myli ... klyyyyykoj, tyle lat w niewiedzy zylem :D btw ten patent z core AVC dziala mi na netbooku n510 a rzekomo nie ma on CUDA :S nic nie rozumiem :/ Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Derick Opublikowano 5 Listopada 2009 Zgłoś Opublikowano 5 Listopada 2009 btw ten patent z core AVC dziala mi na netbooku n510 a rzekomo nie ma on CUDA :S nic nie rozumiem :/ Jak to nie rozumiesz? :) Przecież masz w tym notebooku karte serii 9, więc wyższej niż 8 (w teorii, bo to niemal czysta kotletowa ósemka), to czemu nie miałoby być tam CUDA? I kto tak twierdzi, że grafa w nim nie obsługuje tej technologi? A przecież sam się przekonałeś że jest inaczej. Wierz sobie i temu co widzisz w trayu i pod alt-ctrl-del. ;) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość Harry Lloyd Opublikowano 5 Listopada 2009 Zgłoś Opublikowano 5 Listopada 2009 ION obsługuje CUDA. Do CoreAVC zresztą wystarczą stery 181.xx, nie trzeba też instalować nic poza sterownikami. Do tego obciążenie proca jest troche niższe niż przy PureVideo HD w PowerDVD. Porównywałem 20 Mbps klip właśnie w PowerDVD i w playerze wykorzystującym CoreAVC. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
toms83 Opublikowano 5 Listopada 2009 Zgłoś Opublikowano 5 Listopada 2009 oj, tyle lat w niewiedzy zylem :D btw ten patent z core AVC dziala mi na netbooku n510 a rzekomo nie ma on CUDA :S nic nie rozumiem :/ Bo to już są CUDA nad CUDA. :lol2: Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Derick Opublikowano 5 Listopada 2009 Zgłoś Opublikowano 5 Listopada 2009 (edytowane) Do CoreAVC zresztą wystarczą stery 181.xx, Pewnie w nieoficjalnych tak, ale na stronie coreavc piszą że od 182.05 or higher. Ale żeby pracowały CUDA w wersji 2.2, potrzeba już sterów nieoficjalnych bodajże 190.15, lub wyższych. @ lachuma Pewnie patrzysz co pisza na tej stronie o grafach wspierających i rzeczywiście nie ma tam GF 9400, ale to zwykłe przeoczenie, że brakło tam tej karty w zestawieniu. Chyba logicznym jest, że jak jest GF 8400, to i musi banglać 9400. :) Edyta Off Topik. Jako że nie moge pisać na forum a jedynie w komentach - chyba przez osty,.. bo udowodniłem kiedyś paru młodzikom, że nie mają pojęcia o niektórych aspektach sprzętu komputerowego i w kilku ostrych wymianach, po ataku na mnie że się nie znam, zarobiłem nie całkiem słuszne ostrzeżenia, ale mniejsza o to.. :lol2: Wstawie tu ciekawy materiał, który może nie jest ściśle na temat, ale mysle że niektórych zainteresuje, choć chciałem go zamieścić w dziale Najważniejsze/Nowości, ale nie moge, więc nie bijcie dalszymi %. ;) Jak jest gdzieś o tym na forum, to wyedytuje kasując O.T. Pierwsze benchmark DX 11 Na głownej i forum nic nie widze o pierwszym benchu DX11. Może gdzieś, ktoś zapodawał w dziale Karty Graficzne, ale warto aby bardziej był na wierzchu. ;-) Właśnie mamy pierwszy tester DX 11 a jedną z ważniejszych funkcji jest teslacja - którą opracowała firma Imagination Technologies a jako pierwsza do obsługi sprzetowej, poprzez swoje API, w swoich chipach dawno temu, zaimplementowała w którejś wersji karty PowerVR, firma VideoLogic. Teraz ta świetna technologia, jest w Direct 3D 11 - można by powiedzieć że wreszcie... Pierwszy raz w grze, będzie zaprezentowana chyba jeszcze w tym miesiącu, lub grudniu CMR Dirt 2 (dx11) Nowe możliwości za pomocą teslacji widać na tych filmach z Drita 2 http://www.shacknews.com/onearticle.x/60965 A tu tłumaczenie z eng. za google, newsa o benchmarku Unigine Heaven. Windows 7 ogarnęło na świat wczoraj i świat 3D sprzętu nie trzeba czekać zbyt długo. Mamy kontakt Matthew Tippett z linkiem do rosyjskiego autora Unigine Corporation. Okazuje się, że deweloper stworzył całkiem imponujący DirectX 11 oraz silnika wykonane z niego punkt odniesienia. Lista funkcji jest następująca: -Natywna obsługa OpenGL, DirectX 9, DirectX 10 i DirectX 11 -Kompleksowy tessellation wykorzystania technologii -Zaawansowane SSAO (screen-space ambient occlusion) -Wolumetryczne chmury cumulonimbus generowane przez algorytm fizycznie dokładne -Symulacji dynamicznych zmian otoczenia o wysokiej wierności fizycznej -Interaktywne doświadczenia z pływania / walk-through trybów -ATI Eyefinity support ATI Eyefinity wsparcia Pierwszy na świecie benchmark DX11 nazywa nieba, a nie zalecamy, aby pójść i zobaczyć nagrania wszystkich możliwości Unigine silnik 3D prawo na YouTube, a jeśli jesteś zainteresowany odniesienia nieba, ale nie mają DirectX 11 sprzętu, można zobaczyć cztery minuty wideo odniesienia Heaven działa w trybie DirectX 11 [4:23 video]. OpenGL przybędzie wkrótce. Zdaniem Michała odniesienia Heaven będzie lądował na systemie operacyjnym Linux, dzięki czemu punkt odniesienia, aby uruchomić w trybie 24 wyświetlacz - my nie wspominając Eyefinity jest obsługiwany po wyjęciu z pudełka? Jeżeli wszystkie rzeczy idą dobrze, drugi 24 wyświetlania 3D jest z linuksową wersją odniesienia nieba, po laminarna Research X-Plane. Now, here comes the impressive part about this benchmark. Teraz, tutaj jest imponująca część o tym odniesienia. Dzięki szerokim wykorzystaniem Tessellation i DirectCompute i tekstur w formacie JPEG [zamiast BMP starych dawnych czasach, które przetrwały do dziś]. Deweloperzy nie muszą już korzystać wielogigabajtowych pliki do pobrania. Instead, Heaven benchmark is a brilliantly small 127.8 MB. Zamiast odniesienia Niebo jest doskonale małych 127,8 MB. To tylko może zasługują na miano "Ściąganie tydzień". ;-) Źródło orginalne Tu Cały bench na filmiku HD z YT - Edytowane 5 Listopada 2009 przez Dartas Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
zaodrze244 Opublikowano 6 Listopada 2009 Zgłoś Opublikowano 6 Listopada 2009 czy moglibyście uzupełnić tekst o zestawienie porównawcze kart nvidi montowanych w laptopach z ich odpowiednikami w stacjonarkach, tak żeby było w końcu jasne czym tak naprawdę jest mobilny 9600gt :P etc. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
djsaint Opublikowano 7 Listopada 2009 Zgłoś Opublikowano 7 Listopada 2009 Świetny art, na pewno kosztował masę pracy. Zabrakło jednak w moim odczuciu opisu Rivy TNT1 , TNT2 z 64-bitową szyną, GF2MX/MX200/MX400 oraz GF4MX - to jakby nie patrzeć były jednak bardzo popularne karty. Poza tym bardzo miło było czytając powspominać stare czasy :) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
konku Opublikowano 18 Listopada 2009 Zgłoś Opublikowano 18 Listopada 2009 (edytowane) VideoLogicVideologic produkowało karty oparte o chipy pochodzące od PowerVR. Sam mam Vivid XS i Apocalypse 5D w swojej kolekcji No i na pewno Nv1 to nie był akcelerator 3D a tylko 2D i nazywał się multimedia akcelerator a że potrafił nakładać tekstury i chyba filtrował Wszystkie funkcje, efekty 3D do DirectX 4 realizował procesor. Tylko, że DX nie był wtedy żadnym standardem a Edge 3D obsługiwał tylko te gry, które były specjalnie dla niego napisane akcelerując grafikę 3D. Sorry jak gdzieś się pomyliłem, ale pisze to z pamięci i najwyżej ktoś mnie w czymś poprawi.Co niniejszym czynie. :-) Edytowane 19 Listopada 2009 przez konku Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...