diolek Opublikowano 15 Maja 2003 Zgłoś Opublikowano 15 Maja 2003 lukajcie na ten news http://www.infopc.pl/ i naten http://tech-report.com/etc/2003q2/detonato...fx/index.x?pg=1 taki skok wydajnosci ,od 40 do 100% wow , albo znowu nvidia zrobila jakis przekret z drajwerami , albo naprawde sie postarali Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Kaeres Opublikowano 15 Maja 2003 Zgłoś Opublikowano 15 Maja 2003 Powtarza sie sytuacja z cudownym gf3. Najpierw byl slabszy od gf2 ultra a teraz... :D Ja wierze, ze to po prostu optymalizacja sterownikow bez straty jakosci obrazu. Pewnie za niedlugo zobaczymy wreszcie stery pokazujace prawdziwa moc 5800. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
diolek Opublikowano 15 Maja 2003 Zgłoś Opublikowano 15 Maja 2003 patrzac na te wyniki fx5600 zastanawiam sie nad wymiana mojego ti4200na 5600 ultra REV 2.0 , ale zobaczymy testy tego ultry Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Majdan Opublikowano 15 Maja 2003 Zgłoś Opublikowano 15 Maja 2003 I tak karta jest słabsza od 9600pro , oczywiście nie zabrakło jakiś wałków jak to na Nvidie przystało!!!Ot news z pclab'u: Eksperci z profesjonalnego serwisu ExtremeTech, należącego do korporacji Ziff Davis Media (jeśli ktoś serwisu nie zna - polecamy!), odkryli, że NVIDIA oszukuje w 3DMarku03, by uzyskać lepsze wyniki. Więc szczegółów - poniżej. Trik NVIDII jest bardzo prosty - firma podmienia kod jednostek Pixel i Vertex Shader 3DMarka na własny, a następnie usuwa fragmenty obrazu niewidoczne na ekranie (które jednak 3DMark03 zazwyczaj liczy). W efekcie ilość obliczeń drastycznie maleje, a GeForce FX 5900 Ultra uzyskuje znacznie wyższe wyniki niż RADEON 9800 PRO - mimo praktycznie nikłej różnicy między oboma układami w grach. Oczywiście "optymalizacje" NVIDII nie wpływają na obniżenie jakości obrazu w 3DMarku, więc nie da się ich zauważyć stosując zwykłą wersję programu. Wszystko wychodzi na jaw na specjalnej edycji, Developer Edition, w której istnieje możliwość swobodnego poruszania się po sceneriach poszczególnych testów (Game 1 - Game 4). Przy sterownikach GeForce FX ze scenerii usunięto prawie wszystko, czego nie widać na ekranie podczas normalnego testu. O ile RADEON liczy również te niewidoczne fragmenty - FX już tego nie musi, dzięki czemu uzyskuje znacznie wyższe wyniki. Niektórzy fanatycy NVIDII mogą firmę bronić, że takie optymalizacje są pożądane, bowiem po co liczyć coś, czego nie widać. A jednak - NVIDIA musiałaby zawrzeć podobne optymalizacje w swoich sterownikach dla każdej gry dostępnej na rynku z osobna. Jest to oczywiście niemożliwe. Firma postanowiła "podkręcić" swoje wyniki w 3DMarkach, gdyż tych używa praktycznie każdy recenzent kart graficznych. Są duże szanse, że nie spojrzy on na wyniki w grach i swój ostateczny werdykt odnośnie karty wyda na podstawie ilości punktów w 3DMarku. Dlatego przestrzegamy przed kierowaniem się wyłącznie wynikami z 3DMarków. Chociaż osobiście uważamy, że są to świetne testy, to jednak są one celem nieczystych optymalizacji dokonywanych w sterownikach dla kart graficznych. Oceniając wydajność akceleratorów grafiki, powinniśmy zatem przede wszystkim brać pod uwagę wydajność w grach - w im większej ilości, tym lepiej. Pełen artykuł na serwisie ExtremeTech, z dokładną analizą zachowania sterowników Detonator FX, znajdziecie tutaj. Coraz mniej lubie Nvidie :x Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
GenghisKhan Opublikowano 15 Maja 2003 Zgłoś Opublikowano 15 Maja 2003 hmmm nv pokazuje co daja dobre stery :) no ja tez sie nad zamiana chyba zastanawial to ciekawe jak jeszcze stery dopracuja pod 5900ultra to dopiero bedzie masakra dla konkurencji :) wiadomo w koncu ze nv slynie z najlepiej dopracowanych sterow Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Kaeres Opublikowano 15 Maja 2003 Zgłoś Opublikowano 15 Maja 2003 Przy sterownikach GeForce FX ze scenerii usunięto prawie wszystko, czego nie widać na ekranie podczas normalnego testu. O ile RADEON liczy również te niewidoczne fragmenty - FX już tego nie musi, dzięki czemu uzyskuje znacznie wyższe wyniki. To sie nazywa bufor Z i istnieje juz w kartach od chyba 3 lat. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Kozer2003 Opublikowano 15 Maja 2003 Zgłoś Opublikowano 15 Maja 2003 Kopara opada!Ciekawe co wniosą jeszcze nowsze stery?Aż miło poczekać:) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Majdan Opublikowano 15 Maja 2003 Zgłoś Opublikowano 15 Maja 2003 To sie nazywa bufor Z i istnieje juz w kartach od chyba 3 lat.Ech człowieku , to nie jest żadna optymalizacja , ani żadny Z-buffor tylko najnormalniejsze w świecie , oszustwo ze strony Nvidi!! Jeśli kamera ruszy sie gdzie indziej niż to zaplanowo pojawią sie braki w grafice!! Cykl 3dmarka jest zawsze taki sam i spece od Nvidi sprawdzili jakie kawałki są używane w danym momencie a jakie nie!W grze tego nieda sie zastosować , no bo jak przewidzieć gdzie gracz będzie sie ruszał?Jest to hamskie oszustwo i tyle! Podobne do tego z 64-bitową precyzją kolorów w 3dmarku2003. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
GenghisKhan Opublikowano 15 Maja 2003 Zgłoś Opublikowano 15 Maja 2003 odrazu posiadacze Ati mowia ze to machlojki i ze 5900 ultra to juz wogle najwiekszy szmelc jaki moze byc i ze tylko ich boski 9800 pro jest najlepsza karta i zawsze nia bedzie - ludzie przejrzyjcie na oczy!!!!!!!!! Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
GenghisKhan Opublikowano 15 Maja 2003 Zgłoś Opublikowano 15 Maja 2003 To sie nazywa bufor Z i istnieje juz w kartach od chyba 3 lat. Ech człowieku , to nie jest żadna optymalizacja , ani żadny Z-buffor tylko najnormalniejsze w świecie , oszustwo ze strony Nvidi!! Jeśli kamera ruszy sie gdzie indziej niż to zaplanowo pojawią sie braki w grafice!! Cykl 3dmarka jest zawsze taki sam i spece od Nvidi sprawdzili jakie kawałki są używane w danym momencie a jakie nie!W grze tego nieda sie zastosować , no bo jak przewidzieć gdzie gracz będzie sie ruszał?Jest to hamskie oszustwo i tyle! Podobne do tego z 64-bitową precyzją kolorów w 3dmarku2003. rownie dobrze mozna powiedziec ze radki sa takie szybkie bo pewnie spece z ATI tez cos przekombinowali :lol: Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Marcin Opublikowano 15 Maja 2003 Zgłoś Opublikowano 15 Maja 2003 Z tymi sterami to nvidia już wcześniej kombinowała, ale szybko wykrć sie to dało, bo było widać, ze efektów brakuje :) Teraz złapali sie innej metody - jak widać z pdobnym skutkiem :) Tonący brzytwy sie chwyta jak to mówią. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Majdan Opublikowano 15 Maja 2003 Zgłoś Opublikowano 15 Maja 2003 odrazu posiadacze Ati mowia ze to machlojki i ze 5900 ultra to juz wogle najwiekszy szmelc jaki moze byc i ze tylko ich boski 9800 pro jest najlepsza karta i zawsze nia bedzie - ludzie przejrzyjcie na oczy!!!!!!!!!Ej czytaj uważnie , nie napisałem że 5900 to szajs ani że 9800 jest boski !!! Nie dodawaj sobie rzeczy których nie napisałem!!! Napisałem tylko że Nvidia jak zwykle stosuje przekręty!!!FX 5900 jest jak na razie najwydajniejszą kartą na rynku , i radeon 9800 jest wolniejszy! Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Majdan Opublikowano 15 Maja 2003 Zgłoś Opublikowano 15 Maja 2003 rownie dobrze mozna powiedziec ze radki sa takie szybkie bo pewnie spece z ATI tez cos przekombinowali :lol:Udowodnij że ATI stosuje jakieś wałki w 3d markach , albo celowo pogarsza jakoś grafiki aby uzyskać lepsze wyniki tak jak to robi Nvidia! Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
SuChyY Opublikowano 15 Maja 2003 Zgłoś Opublikowano 15 Maja 2003 Dajcie sobie spokoj z klotniami kaeres musi bronic jak zawsze nvidii podobnie robi genghiskan czy jak sie tam pisze ( ;) ) Prawda jest taka ze obie karty sa dobre tylko nVidia tak bardzo chce byc na topie ze oszukuje... szkoda, bo tym samym tylko sie pograzaja... Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
GenghisKhan Opublikowano 15 Maja 2003 Zgłoś Opublikowano 15 Maja 2003 odrazu posiadacze Ati mowia ze to machlojki i ze 5900 ultra to juz wogle najwiekszy szmelc jaki moze byc i ze tylko ich boski 9800 pro jest najlepsza karta i zawsze nia bedzie - ludzie przejrzyjcie na oczy!!!!!!!!!Ej czytaj uważnie , nie napisałem że 5900 to szajs ani że 9800 jest boski !!! Nie dodawaj sobie rzeczy których nie napisałem!!! Napisałem tylko że Nvidia jak zwykle stosuje przekręty!!!FX 5900 jest jak na razie najwydajniejszą kartą na rynku , i radeon 9800 jest wolniejszy! nie pisalem ze to ty powiedziales :wink: Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
GenghisKhan Opublikowano 15 Maja 2003 Zgłoś Opublikowano 15 Maja 2003 Dajcie sobie spokoj z klotniami kaeres musi bronic jak zawsze nvidii podobnie robi genghiskan czy jak sie tam pisze ( ;) ) Prawda jest taka ze obie karty sa dobre tylko nVidia tak bardzo chce byc na topie ze oszukuje a jaka firma sie przestraszyla ze w dniu wydania 5900 ultra zapowiedziala r360??? he - kto co chwile wydaje coraz to nowe karty tylko rozniace sie taktowaniem zeby tylko byc lepsza??? zastanow sie co piszesz ktos tam jeszcze wspomnial ze tonacy brzytwy sie chwyta - nie wiem czemu NV ma wieksza czesc rynku przeciez i dobrze sie trzyma 8O Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
diolek Opublikowano 15 Maja 2003 Zgłoś Opublikowano 15 Maja 2003 ci co tak najezdzaja na nvidie niech mi pokaza dowod ze wtym konkretnym przypadku , nvidia oszukuje ?! , bo takie gadanie ze oszukuje to ja mam gdzies , chce dowody Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
diolek Opublikowano 15 Maja 2003 Zgłoś Opublikowano 15 Maja 2003 ci co tak gadaja ze oszukane to jest w 3dmarku to niech przegladną bardziej http://tech-report.com/etc/2003q2/detonato...fx/index.x?pg=1 i tam zobaczą ze w grach tez jest bardzo duzy skok wydajnosci Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Majdan Opublikowano 15 Maja 2003 Zgłoś Opublikowano 15 Maja 2003 ci co tak najezdzaja na nvidie niech mi pokaza dowod ze wtym konkretnym przypadku , nvidia oszukuje ?! , bo takie gadanie ze oszukuje to ja mam gdzies , chce dowody Oto dowód Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
GenghisKhan Opublikowano 15 Maja 2003 Zgłoś Opublikowano 15 Maja 2003 ci co tak najezdzaja na nvidie niech mi pokaza dowod ze wtym konkretnym przypadku , nvidia oszukuje ?! , bo takie gadanie ze oszukuje to ja mam gdzies , chce dowody Oto dowód no i co ktos tak napisal a ty w to wierzysz juz? 8O i tak 5900ultra bez krecenia i bez niczego z palcem w [gluteus maximus] bierze r9800pro 256MB Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
MicJes Opublikowano 15 Maja 2003 Zgłoś Opublikowano 15 Maja 2003 To jest tak, ze ATI jak wydaje stery, to sa juz w 99% dopracowane wydajnosciowo. A Nvidia wydaje co roz nowe stery i ciagle cos porawia, z tad takie wzrosty wydajnosci(bo wzieli sie w koncu za rzecz, ktora spowalniala karty) Proste :P Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Lisek Opublikowano 15 Maja 2003 Zgłoś Opublikowano 15 Maja 2003 Nie to forum... Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Liskoski Opublikowano 15 Maja 2003 Zgłoś Opublikowano 15 Maja 2003 nie lubie nvidii ale pamietam jak ati zrobila walka i q3 szybciej dzialal bo stery pogarszaly jakos teskstur chyba o 25% :idea: Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Skolim Opublikowano 15 Maja 2003 Zgłoś Opublikowano 15 Maja 2003 no i co ktos tak napisal a ty w to wierzysz juz?A komu mamy wierzyć tobie :?: :lol: Ja jakoś bardziej jestem przekonany do ludzi z extremetech niż do twoich opinii. genghiskhan czy ty to wszystko piszesz żeby podroczyć się z ludźmi, czy żeczywiście tak slepo wierzysz że NV nie mogła przekrętu zrobić :?: toć to zwykły marketing i tyle :!: i nie ma w tym nic dziwnego. fakty sa takie że FX5800 nie spełnił oczekiwani i tyle. Dopiero FX5900 jest tym czym miał być 5800. Jest marginalnie szybszy od radka, a NV nia siłe próbuje sprawić żeby "miażdżył" radosławy. A czemu NV ma większośc rynku :?: Bo go zdobyła wcześniej i łatwiej jest go utzrymać zresztą najszybsze karty stanowią minilalna część sprzedazy wojna toczy się w segmentach średnim i niskim. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
GenghisKhan Opublikowano 15 Maja 2003 Zgłoś Opublikowano 15 Maja 2003 ja nie mowie zebyscie mi wierzyli!!! nie wiem kto ma ati to juz bedzie tylko to chwalil widac nawet wydanie wypasionej karty juz nie przyciagnie klientow.... ja wiem swoje wy swoje EOT!!!!! nie ma sensu gadac wiecej :( Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Druss Opublikowano 15 Maja 2003 Zgłoś Opublikowano 15 Maja 2003 A ja wale te nowe karty bo mnie i tak na nie nie stac, ati chce doloazyc do r9800pro ddr-II bo juz sra w gacie a to tylko sprawi ze karta podrozeje. Mi tam starcza to co mam i nastepna karte kupie jak bedzie cos ciekawego kolo 400zl :P Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Majdan Opublikowano 16 Maja 2003 Zgłoś Opublikowano 16 Maja 2003 no i co ktos tak napisal a ty w to wierzysz juz? 8O i tak 5900ultra bez krecenia i bez niczego z palcem w <font color="#FF0000">[ciach!]</font> bierze r9800pro 256MB Dlaczego mam nie wierzyć w prawde?Nie jestem ślepy i widze wałki jakie firmy robią!Nawet na stronie Nvidi jest news który mówi że ten wałek(Według gościa błąd :lol: ) istnieje! omimo, że wielkość tego newsa jest odpychająca (w końcu tyle czytania) polecam wczytać się w niego dokładnie - sądzę, że warto! Przed chwilą przeczytałem nowego newsa jaki ukazał się na stronach [H]ard|OCP. Redaktor tam przedstawia nieco inne podejście do sprawy - bardziej przychylne dla NVIDIA, jednak mające pewne racje. Należy podkreślić, że redaktorzy serwisu ExtremeTech uczestniczą w programie Beta Testerów 3DMark03. Dzięki temu mają dostęp do dodatkowych narzędzi które tyczą się produktu FutureMarka. Muszę też tutaj napisać, że NVIDIA NIE należy do tego programu i nie uczestniczy przy rozwijaniu serii 3DMark - toteż nie ma dodatkowych narzędzi. NVIDIA wstępnie odpowiedziała, że wynikiem błędu może być działanie inteligentnego selekcjonowania i wycinania danych, które teoretycznie nie są wyświetlane (czyli np. te, które są zasłonięte przez dany obiekt). Ponadto wiele osób może powiedzieć, że faktycznie są tutaj jakieś przekręty - też tak myślałem. Jednak news Kyle'a wprowadził mnie na inny tor myślenia. Każde oprogramowanie jest inne - nie są one w żaden sposób unifikowane i pomimo, że korzystają z tych samych bibliotek, to mogą się różnie zachowywać na różnych kartach. Należy też pamiętać, iż różne karty posiadają różne algorytmy wykonujące teoretycznie to samo zadanie (a ściślej mówiąc ich wynik TEORETYCZNIE powinien być identyczny). Jednak są to niesamowicie złożone algorytmy, których celem jest wykonanie tego samego z jak największą dokładnością i najlepszym efektem, a zarazem w jak najszybszy sposób i przy użyciu dostępnych technologii. By zobrazować jak to wygląda, polecam cofnąć się wstecz i popatrzeć na karty z rodziny RIVA czy pierwsze GeForce. Chodzi mi o to, że karty te miały dość prymitywne algorytmy. Wynikiem tego był transfer dużej ilości pustych przeliczeń, które przecież można było ominąć! Dlatego też wtedy podkręcenie pamięci miało tak pozytywne skutki na wydajność - bo ta duża ilość pustych danych mogła być szybciej przetransferowana. Obecnie jest odwrotnie! Można zauważyć, że podkręcanie pamięci daje dość małe (w porównaniu do wcześniejszych kart) przyspieszenie pracy kart. Wszystko to właśnie przez zoptymalizowane algorytmy które już na samym początku inteligentnie usuwają zbędne dane. Dzięki temu nie transferuje się bajtów, które później i tak nie przydadzą się przy wyświetlaniu obrazu. Na dodatek korzysta się z kompresji danych, które to dodatkowo zmniejsza zapotrzebowanie na dużą przepustowość pamięci. W ten sposób podkręcenie chipsetu o kilka MHz daje tak duży wzrost wydajności. Również i obecne sterowniki są dość specyficzne. Sterują one niemal inteligentną kartą, której moc obliczeniowa i zaawansowane algorytmy zostawia w tyle procesory - te są prymitywami przy VPU! Dlatego też każde nowe oprogramowanie może niepoprawnie działać na najnowszych kartach. Wtedy to z pomocą przychodzą producenci i biorą pod lupę daną aplikację optymalizując pod nią kartę. Musicie wiedzieć, że optymalizacje pomimo, że mają na celu usprawnienie działania danego produktu na danej aplikacji, nie polegają na maksymalnym wyciskaniu FPSów. Dodaje się tutaj support dla specyficznej aplikacja (a każde oprogramowanie jest specyficzne, ponieważ tworzone jest przez różne zespoły osób, które różnie wykonują teoretycznie to samo - wyświetlają 'jakieś tam texturowane obiekty'). Jeżeli już zaczyna karta dobrze współpracować z aplikacją, należy pomyśleć co należy zrobić, by wykonywać to lepiej! Już w przypadku 3DMarka03 wielu redaktorów czepiało się nieba, które miało różną ilość chmur. A przecież niebo - jak sami pisali!!!! - nie było jedną teksturą, lecz było przeliczane i to z użyciem zaawansowanych technik. Jaki był wynik? Niebo GeForce FX'a było ciemniejsze i od razu padło podejrzenie na sterowniki i oszustwo firmy NVIDIA. A przecież będąc świeżo po wykładzie o algorytmach wiecie, że pomimo, że TEORETYCZNIE efekt ten powinien być taki sam, był nieco inny - lecz zawsze w granicach błędu. Tak samo sprawa ma się z wodą w teście 'Mother Nature'. Jeżeli macie możliwość porównania wody generowanej przez karty NVIDIA i ATI od razu zauważycie różnice! I to nie trzeba żadnych screenów i specjalnego porównania. Co tutaj dużo mówić - woda generowana przez kartę ATI jest o niebo lepsza. Jaki z tego wniosek? Panowie z ATI postarali się i lepiej poradzili z tą sprawą. Dzięki czemu wygrali? Tego pewnie nie dowiemy się nigdy, ponieważ zawsze może to być po stronie sprzętowej (czyli lepsze algorytmy Pixel i Vertex Shadera) albo lepsze sterowniki. Mam nadzieję, że przestaniecie podchodzić negatywnie do wszelkich optymalizacji sterowników i obrzucać firmy, że oszukują, by ścigać się na FPSy. Uwierzcie mi, że każda wpadka z oszustwem jest takim dużym ciosem w markę firmy, iż jest to nieopłacalne. Drugim aspektem jest to, że firmy utrzymują się ze sprzedaży produktów najtańszych i o średniej cenie (czyli fachowo nazywając low-end i midrange). Produkty High-End mają za zadanie zrobić firmie markę - dlatego one są czułym punktem każdej firmy, który zresztą tak chętnie atakowany jest przez żadne rozgłosu strony internetowe. Byle błąd np. w sterownikach od razu jest szykanowany jako błąd w karcie - a wiadomo, że producentowi trudno wtedy wytłumaczyć się gdy od razu każdy nastawiony jest negatywnie. Co by nie powiedzieli i tak negatywnie zostanie pojmowane. Kończąc tego ogromnego newsa wróćmy do 'starań' redaktorów z ExtremeTech. Czy zauważony przez nich błąd jest faktycznie błędem czy oszustwem? Osobiście twierdze, że błędem. Jednak jeżeli NVIDIA rozwiąże go wydając nowe sterowniki (co najprawdopodobniej zrobi) zostanie posądzona o zatuszowanie go w inny sposób. A kto na tym zyska? Oczywiście ExtremeTech o którym przecież jest głośno ... Straci? NVIDIA, bo masa osób krzywo patrzy na ten błąd! Oczywiście koleś który pisał ten news zaczyna pieprzyć , o optymalizacjach algorytmach i innych duperelach , aby zatuszować wałki Nvidii!Nawet najwowszy wąłek sklasyfikował jako błąd! Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
GenghisKhan Opublikowano 16 Maja 2003 Zgłoś Opublikowano 16 Maja 2003 a jedni dalej swoje jak tu gadac z takimi :( Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Majdan Opublikowano 16 Maja 2003 Zgłoś Opublikowano 16 Maja 2003 a jedni dalej swoje jak tu gadac z takimi :(Gadać to z Tobą nie można , bo twój "mózg" nie przyjmuje faktów. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
GenghisKhan Opublikowano 17 Maja 2003 Zgłoś Opublikowano 17 Maja 2003 a jedni dalej swoje jak tu gadac z takimi :(Gadać to z Tobą nie można , bo twój "mózg" nie przyjmuje faktów.ale fakty sa takie ze nv tak czy inaczej ma teraz najszybsza karte z super jakoscia obrazu i efektami :wink: Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...