Skocz do zawartości

Rekomendowane odpowiedzi

Rubby ma klase i widać, że jest pełna energii i chęci do działania, ma odwage i siłę!

Może i z tych obrazków przebija siła i energia ale nie styl i kobiecośc..po prostu ma kiczowaty strój jak z niskobudzetowego serialu SF dla dzieciaków że nie wspomnę o fryzurze :D ..te naramienniki :lol: i te coś na ręku :P normalnie Power Rangers :lol: :lol: , co do urody to kwestia gustu nie powiedziałem ze jest brzydka ...jesli chodzi o urodę to ani Rubby (Boże co to za imię :? :lol: :lol: ) ani Nalu nie jest szczególnie powalająca.

 

Ale zejdzcie juz ze mnie panowie miłosnicy ATI 8) bo jesli chodzi o ATI to akurat konkretna firma i nic do nich nie mam (robi dobre karty a grzeszków ma też sporo na swoim koncie)

 

To tyle ...kazdy wyraził swoje gusta :P

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

zamiast wymyslac jakies rubinki i rybki powinni przyjsc po rozum do glowy i wylansowac lare croft i gra by sie sprzedala i karta bo laska nie do przebicia .. a w demku majac setki tys poligonuw wygladala by .. ech te cycuszki :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

a teraz cytat (pclab.pl)dla maniaków ATI i prosze powiedziec co o tym sadzicie:

 

Tydzień temu wybuchła bomba. Serwis DriverHeaven opublikował artykuł oczerniający produkty firmy NVIDIA. Oskarżono w nim firmę o oszustwa mające polegać na manipulowaniu Mip-Mapami w celu uzyskania wyższej wydajności, kosztem niższej jakości renderingu w 3DMark03 i grze Max Payne 2. Niestety krzyki podniesione na cały świat odniosły skutek. Internetowe fora zapełniła plaga wyzwisk w stronę firmy NVIDIA. A wszystko z powodu artykułu przedstawiającego nieprawdziwe i tylko wybrane (tylko te, działające na niekorzyść NVIDIA oczywiście) informacje. Futuremark (producent 3DMark03) wypowiedział się w tej sprawie dopiero dziś.

 

Tero Sarkkinen z Futuremark, w odpowiedzi na wszystkie zarzuty napisał, że wszelkie różnice w poziomach Mip-Map wynikają z różnic w algorytmach filtrowania anizotropowego w różnych układach graficznych. Jest to według mnie osobiście podstawa, którą nawet początkujący recenzent powinien znać. Sarkkinen stanowczo zaprzeczył także pomówieniom o stosowanie przez NVIDIA w sterownikach Forceware 60.72 BETA jakichkolwiek optymalizacji, dla poszczególnych aplikacji (w tym przypadku, dla 3DMark03), a te spełniały i nawet po dodatkowych testach, nadal w całości spełniają wszystkie wymogi odnośnie sterowników, mogących zostać zaakceptowanymi przez Futuremark. Pracownik tejże firmy wyjaśnił także, z czego wynikają różnice pomiędzy renderingiem GeForce 6800, a referencyjnym DirectX 9.0 SDK. Firma Microsoft, w odpowiedzi na pytania Futuremarka oznajmiła, że rasteryzer referencyjny nie generuje idealnych wyliczeń poziomów detali (LOD), a efekt wyjściowy na układach GeForce 6800 jest lepszy. Na zakończenie, Tero Sarkkinen stwierdził, że to, co "odkrył" Driver Heaven nie sprawia także, że wyniki kart graficznych są nieporównywalne. Do dziś NVIDIA oficjalnie w ogóle nie skomentowała żadnych oskarżeń ze strony serwisu.

 

Ktoś z pewnością coś tu zoptymalizował, ale to raczej nie była NVIDIA. Oryginalną wersję wypowiedzi Tero Sarkkinen można znaleźć na forum Driver Heaven.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli nVidia nie optymalizuje trickami to dobrze! Mimo wszystko nadal pod znakiem zapytania stoi FarCry i rendering w niskiej precyzji. Teraz pozostaje tylko czekać na oficjalne wyniki i porównanie jakości obu kart! Myślę, że będzie ciekawie! 8)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

pojawil sie pierwszy test porownawczy geforce6800 vs.radeon x800

Niestety po hiszpansku:http://www.meristation.com/sc/articulos/ar...N&cr=5218&pag=0

Jeśli idzie o wyniki z włączonym AA, to ATI nie miało włączonego temporal AA (co widać w teście image quality). Jeśli Nvidia nie dokona cudu w ForceWare, wtopi już na wstępie z antialiasingiem.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dołączona grafikaDołączona grafika

 

Dołączona grafika

Porownajcie sobie spadek wydajnosci przy wlaczonym AA i ANIZO 8O 8O Juz sie nie dziwie , ze zmienili nazwe na Platinium , jak dla mnie to by sie mogla nazywac ULTRA MASAKRA PLATINIUM TURBO :lol: Ja nie wiem jak oni to zrobili , ze ta grafa prawie wcale nie ma spadku przy wlaczonym AA i ANIZO 8O 8O Z reszta w kazdym tescie jest taka sam roznica miedzy NV 40 i R420 . Przy max AA i Anizo jest zawsze o 100% wiecej FPSow u ATI 8O

 

EDIT: Albo jakis bug albo cus ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To nie jest bug - 8xAA nv40 to polaczenie multisamplingu i supersamplingu - ktory jest BAAAAARDZO wolny. Inzynierowie nVidii musieli byc chyba pijani jak to implementowali... Owszem, daje to CZASAMI lepsze efekty wizualne od AA multisampling x6. Ale co z tego, jesli jest to tak wolne, ze smiech na sali... :)

 

Natomiast co do wynikow - co bylo oczywiste - karta jest minimalnie szybsza od nv40 :lol: Natomiast ma o wiele madrzej zapowiadajace sie nowe 'usprawnienia' niz IMO nietrafione zbyt szybjkie przejscie nVidii na shadery 3.0, ktore tak nawiasem niewiele daja...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Natomiast co do wynikow - co bylo oczywiste - karta jest minimalnie szybsza od nv40 :lol: Natomiast ma o wiele madrzej zapowiadajace sie nowe 'usprawnienia' niz IMO nietrafione zbyt szybjkie przejscie nVidii na shadery 3.0, ktore tak nawiasem niewiele daja...

Eee tam roznicy nawet nie widac :lol:

 

Co do testow to podobalo mi sie podsumowanie z serwisu HEXUS.NET

Zdjecie Ruby z szyderczym usmiechem i pod tym napis : "Gdybym to ja byl Ati, tez bym sie usmiechal" :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A nasi jak zwykle 100 lat za murzynami :twisted: :twisted: Wszedzie juz sa pelne testy a u nas sa dopier na 3dmarku 2001SE :twisted: Co to za pomysl z ta recenzja na zywo ? To nie jest TV :D tylko internet . Pewnie sie cala noc napalali na r420 i grali zamiast robic tesy :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Pozamiatane  :twisted:

czekalem na te twoje slowa nasz Ati'owy guru#2

widziales wszystkie testy - w niektorych ati sromotnie przegrywa - przyklad painkiller :lol: :lol: :lol:

generalnie karty sa porownywalne - tylko zobaczcie na zegary ati 520 nv 400 - ciekawe co bedzie jak sie na nv dobre chlodzonko wpakuje i pusci tak jak to ati :oops: :twisted:

no i cena;]

 

http://www.driverheaven.net/reviews/6800x8...verclocking.htm - zobaczcie jakiego nv kopa przy kreceniu dostaje 8)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dołączona grafika

"16:55 Teraz widać wyraźnie, do czego NVIDII potrzebny był model GeForce 6800 Ultra Extreme. Firma chciała po prostu zdecydowanie pokazać, kto rządzi w 3DMarku03.

 

Tymczasem RADEON X800 XT i GeForce 6800 Ultra uzyskały praktycznie takie same wyniki. RADEON X800 PRO trochę (ale wyraźnie) gorzej."

Zoptymalizowali pod 3dsmarka? Dziwne... Teraz juz wiemy skad te 12k w 3dm'03.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Czy ktos moze wie kiedy te nowe karcioszki wejda u nas na polski rynek??. A co z tym zwiazane to ja nio i pewnie nie tylko ja chcialbym, aby ceny innych kart poszly w dol, takze tych middle end... :D, ale czy tak sie stanie to sie okaze mam nadzieje juz niebawem.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

w niektorych ati sromotnie przegrywa - przyklad painkiller  :lol:  :lol:  :lol:  

A mozesz podac przykład na grze która NIE jest pisana pod NV.

http://www.driverheaven.net/reviews/6800x8...verclocking.htm - zobaczcie jakiego nv kopa przy kreceniu dostaje 8)

Szkoda że kolesie porównywali tego podkręconego GF6800Ultra(16x1) do X800PRO(12x1), a nie do podkręconego X800XT :lol:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach




×
×
  • Dodaj nową pozycję...