Skocz do zawartości
kobe83

Nadchodzi XGI Volari

Rekomendowane odpowiedzi

Polecam poczytać http://www.pl.tomshardware.com/graphic/200...-volari-10.html.

Zapraszam do dyskusji jak widziecie nową konkurencję.

Ja rownież czekam S3 Delta Chrome.

Czy myślicie że ceny spadną, czy "bój" bedzie się toczył w kategori najdroższych kart, czy cos taniego też bedzie ( pokroju Readona 9200 i Geforce FX 5200)?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

może następna geberacja będzie już na poziomie nvidii i ati, nie zapominajcie jeszzce że wysoką wydajność kolesia uzyskują dzięki 2 GPU, jak stare voodoo zaraz przez upadkiem. może w średnim rynku 1-GPU karty będą ok ale to zależy od ceny.

na razie ktoś kupi tylko dla bajeru.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

nie chce snuc apokaliptycznych wizji ale jako ze przy powstawaniu tej karty paluszki maczalo Sis wiec podziele sie swoimi spostrzezeniami oraz wyjasnic dlaczego wg mnie Volari bedzie klapa :

 

* zrobia wszystko zeby karta byla niezla w benchmarkach - oszukiwanie w sterach na jakosci obrazu i ukryte optymalizacje

* wiele tytulow nie bedzie dzialac ciagle beda poprawiac sterowniki, czesc gier zacznie chodzic dopiero po wyjsiu odpowiedniego patcha

* po jakis 2 latach kiedy przedsiewziecie okaze sie juz nieoplacalne zupelnie przestana sie interesowac klientem - przestana wydawac nowe drivery a odsetek nowych gier ktore przestana chodzic bedzie coraz wiekszy

 

sluchajcie nie wymyslilem sobie tego to sa fakty z historii Xabra firmy SIS. Wiem ze konkurencja to dobra rzecz, zreszta kto by nie chcial miec wydajnej karty za male pieniadze ale kupujac Volari trzeba sie liczyc ze ktoras z podanyh przeze mnie sytacji bedzie miala miejsce

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

nie chce snuc apokaliptycznych wizji ale jako ze przy powstawaniu tej karty paluszki maczalo Sis wiec podziele sie swoimi spostrzezeniami oraz wyjasnic dlaczego wg mnie Volari bedzie klapa :

 

* zrobia wszystko zeby karta byla niezla w benchmarkach - oszukiwanie w sterach na jakosci obrazu i ukryte optymalizacje

* wiele tytulow nie bedzie dzialac ciagle beda poprawiac sterowniki, czesc gier zacznie chodzic dopiero po wyjsiu odpowiedniego patcha

* po jakis 2 latach kiedy przedsiewziecie okaze sie juz nieoplacalne zupelnie przestana sie interesowac klientem - przestana wydawac nowe drivery a odsetek nowych gier ktore przestana chodzic bedzie coraz wiekszy

 

sluchajcie nie wymyslilem sobie tego to sa fakty z historii Xabra firmy SIS. Wiem ze konkurencja to dobra rzecz, zreszta kto by nie chcial miec wydajnej karty za male pieniadze ale kupujac Volari tzreba sie liczyc ze ktoras z podacyh przeze mnie sytacji bedzie miala miejsce

a ja mysle ze dwoch gigantow na rynku to za malo ab mozna bylo mowic o konkurencji. najlepszym tego przykladem jest rynek procesorow. mysle ze nowe firmy sa wrecz wskazane i mysle ze konkurencja zrobi swoje. a majac juz doswiadczenie z firmy 3dfx i sis mysle ze wlasnie nie popelnia podobnych bledow.

 

no ale wszystko sie okaze... w przyszlosci (albo przeszlosci)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

8O 8O 8O

 

Dołączona grafika

 

Boskie...

 

Myślę, że kupiłbym to, bo dosyć mam w sumie nVidii i Ati. Chętnie przyczyniłbym się do wejścia na rynek kolejnego zawodnika, no i lubię nietuzinkowe rozwiązania :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Troche czasu zajmie im wejscie na szczyt... ale opinia nie jest narazie za ciekawa.

Przyjrzyjcie sie tym screenom z benchmarkow - karta XGI wypadla blado i wiele jej jeszcze brakuje.

To jakis wkret z tymi screenami

Na samym poczatku jak tylko na ''tomshardware'' pokazali te screeny to byly cudne !!! Po doslownie kilku dniach zostaly ,,podmienione'' :twisted: Przyuwazyl juz to ktos moze???? Ja mysle ze juz hajs poszedl do czyjejs kieszeni w tym temacie P......... NVIDIA i ATI niech zyje PVR! :twisted:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

nie chce snuc apokaliptycznych wizji ale jako ze przy powstawaniu tej karty paluszki maczalo Sis wiec podziele sie swoimi spostrzezeniami oraz wyjasnic dlaczego wg mnie Volari bedzie klapa :

 

* zrobia wszystko zeby karta byla niezla w benchmarkach - oszukiwanie w sterach na jakosci obrazu i ukryte optymalizacje

* wiele tytulow nie bedzie dzialac ciagle beda poprawiac sterowniki, czesc gier zacznie chodzic dopiero po wyjsiu odpowiedniego patcha

* po jakis 2 latach kiedy przedsiewziecie okaze sie juz nieoplacalne zupelnie przestana sie interesowac klientem - przestana wydawac nowe drivery a odsetek nowych gier ktore przestana chodzic bedzie coraz wiekszy

 

sluchajcie nie wymyslilem sobie tego to sa fakty z historii Xabra firmy SIS. Wiem ze konkurencja to dobra rzecz, zreszta kto by nie chcial miec wydajnej karty za male pieniadze ale kupujac Volari trzeba sie liczyc ze ktoras z podanyh przeze mnie sytacji bedzie miala miejsce

No tak ale ja sondzę że Xabre to był poprostu wypadek przy pracy bo poprzednik xabre czyli sis315 był wręcz genialny, bo w czasach kiedy królowały MX 400/200 które kosztowały podczas swojej premiery kolejno ok 600/300zł które w 3dm2k1 zdobywały średnio 2500/1200pkt a sis315 który kosztował ok 200zł zdobywał aż 1900pkt o czymś to świadczy niestety w Polsce karty tej było jak na lekarstwo więc u nas furory nie zrobiła :(.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Zastanawia mnie tylko po co 2 gniazda zasilania?? ;)

Jezeli wydajnosc bedzie taka jak na tych pierwszysch testach na THG to bedzie naprawde krol :D

Na dwa procki ? :roll:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Zastanawia mnie tylko po co 2 gniazda zasilania?? ;)

Jezeli wydajnosc bedzie taka jak na tych pierwszysch testach na THG to bedzie naprawde krol :D

Na dwa procki ? :roll:
To to az tyle pradu ciagnie ze trzeba 2 gniazda?? 8O 8O 8O

Jezu jak to sie kupi to trzeba spawarki do zasilania. 8O 8O 8O

 

LOL :lol: :lol: :lol:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ale po cholerę, przecież to na PCB można rozdzielić 8O

I tak prędzej się ścieżki spalą, niż kable, nie?

 

No chyba, że można kartę jednocześnie z 2 zasilaczy podłaczać bez obawy, acz wątpie

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Całkiem nieźle wypadł ten s3 jak będzie niska cena i duża kompatybilność to bym się na niego skusił. Co do volari to potrzebne są jej dobre stery gdyż te wyniki jakie uzyskała na THG są tak niskie i mają tak duży rozrzut że wydaje się nieprawdopodobne aby ta karta była tak sknocona przez złą architekture. W jednym teście jest przed 9600pro a w drugim ledwo przed mx400. Co do ceny to lepiej żęby dobre stery się pojawiły szybko i pokazały co potrafi ta karta ( jeśli potrafi :D ) bo cena która miała wynosić ok 1500zł za karte z wydajnością pomiędzy 9600pro a 9700 raczej nie jest kusząca. Ale nie traćmy nadziei, módlmy się przed pójściem spać o dobre stery i czekajmy na duo volari V5 (oczywiście módlmy się takrze aby kosztowała mniej niż 1000zł i pobiła fx5600ultraII.)

A konkurtencja by się przydała bo to ATI i nVida podniosła ceny za najmocniejsze produkty do 2-3 tyś zł co jest zbrodnią przeciw społeczeństwó bo kiedyś za 1400 można było mieć najmocniejsze karty :evil: .

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wydajnosc jak na konkurenta 9800 jest szczerze mowiac do zadka :lol: Mozna sie pocieszac ze to dopiero beta . Jednak roznica to 50 dolcow a jak kupuje sie grafe za 1500 to te 200 zeta w te lub w ta nie robi strasznej roznicy a radki sprawdzone i pewne .

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

cześć gier nie ruszy w ogóle, część będzie się wlokła a te co chodzą spoko to akurat ktoś może nie przepadać - i wtedy wielka koopa.

póki co niech sobie będzie a kupować nie ma sensu (riva128 kiedyś była w takiej sytuacji, później TNT zrobiła porządek z 3d szmatexami :D ).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Najwyższa pora jak nie na rewolucje to przynajmniej na konkurencje.

Tylko zeby cos z tego wyszło z segmencie tanich a wydajnych kart, a nie teraz tanie i z leksza ciulate 9200se i FX5200. Bo zaś bedzie walka o jak najbardziej wydajną karte na rynku, a ceny adekwatne. A Ati powinno sprzedawać normalnie po niskich cenach dalej swoje readony 9100 lub nawet 9000 a nie wporwdzać dziadowskie 9200.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Poczekajmy, aż będzie działał antyaliasing, bo jeśli chcą atakować pozycję króla wydajności, to wydajność w AAx4 i AAx6 ma większe znaczenie, niż bez.

Co do 2 gniazd zasilania - kicha jest to na maxa, ludzie z słabszymi zasiłkami się nie zdecydują i wcale im się nie dziwię.

Należy się jednak cieszyc niezależnie od tego, czy firma odniesie sukces czy nie, bo dla klientów to oznacza spadek cen , przynajmniej chwilowy.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Kiedy ta karta pojawi sie w oficjalnej sprzedarzy? ATI i Nvidia planuja wypuszczenie chipow R420 i NV40 na wiosne, nie pomoze to Volari w osiagnieciu sukcesu, cena musi isc ostro w dol.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Niestety wyszło na jaw, że XGI stosuje w swoich sterownikach Reactor 1.01.510 optymalizacje, które pozytywnie wpływają na wydajność, jednak jakość obrazu pozostawia wiele do życzenia. Takie optymalizacje zostały wlączone do wielu apliacji, a po ich wyłączeniu wydajność wyraźnie spadała.

no i niestety mialem racje ciekawe jak predko sprawdza sie moje kolejne przepowiednie :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Niestety wyszło na jaw, że XGI stosuje w swoich sterownikach Reactor 1.01.510 optymalizacje, które pozytywnie wpływają na wydajność, jednak jakość obrazu pozostawia wiele do życzenia. Takie optymalizacje zostały wlączone do wielu apliacji, a po ich wyłączeniu wydajność wyraźnie spadała.

no i niestety mialem racje ciekawe jak predko sprawdza sie moje kolejne przepowiednie :)
Niestety to prawda :/ Co prawda to wszystko jest jeszcze świeże i niedopracowane, ale jak patrze na wyniki po wyłączeniu optymalizacji to przestaje wierzyć, że cokolwiek jeszcze się zmieni. Pisałem dzisiaj o tym na Tweak'u.

 

:arrow: http://www.tweak.pl/news/pokaz.php?uid=standard-670

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach



×
×
  • Dodaj nową pozycję...