Gość potfur Opublikowano 3 Kwietnia 2010 Zgłoś Opublikowano 3 Kwietnia 2010 (edytowane) dyskusja z czlowiekiem, ktory wierzy w: A sam pomysł (z poprzedniego mojego postu - prototyp GTX 960 z wtyczką jak do pg. ATX 24 pin.) jest po prostu poroniony, a na pewno skrajnie irracjonalny. jest bezcelowa. imo najwieksi szczekacze z tego topicu <18 lat Post nr. #573 & #574 panie "nie-szczekacz", pokażę: FACEPALM.... a wiesz w jakim dniu pojawiły się newsy o 'GTX960'? ~shoxeh Już poprawiłem nieprawdziwe (czyt. prima-aprillisowe) informacje :) - dzięki za zwrócenie uwagi. Tylko że to nadal nie zmienia postaci rzeczy ;) ;] (a nawet ją troszkę pogarsza na niekorzyść nV). I nagle stanie się jasność (albo i nie). "[...]Dlatego dla przeciętnego zjadacza chleba ta karta zostanie mega głośną grzałką i niczym więcej.[...]" Liczę że nV pokaże coś na tej architekturze w segmentach mid-range & low-end - mogłoby być interesująco ;) ;] Edytowane 3 Kwietnia 2010 przez potfur Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
kwasior500 Opublikowano 3 Kwietnia 2010 Zgłoś Opublikowano 3 Kwietnia 2010 Zaraz, zaraz. Te testy ukazuje jakie maxymalne ustawienia można załączyć by gra była płynna. Poza efektami sugeruje spojrzeć na AA chociażby w ostatniej grze. 4AA nV vs 2AA ATI ... Jedyna gra przetestowana na identycznych ustawieniach... i jakoś to inaczej wygląda niż pozostałe :) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość potfur Opublikowano 3 Kwietnia 2010 Zgłoś Opublikowano 3 Kwietnia 2010 Tak, tak jak np. w tych dwóch przykładach ;) B:bc 2 - nV 16x CSAA - 2x TRSSAA - 16x AF vs. ATi 12xCFAA - AD SSAA - 16xAF Dirt 2 - nV 8x CSAA - 8x TRSSAA - 16x AF vs. ATi 12xCFAA - AD SSAA - 16xAF itd. itp. ;) ;] Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
czullo Opublikowano 4 Kwietnia 2010 Zgłoś Opublikowano 4 Kwietnia 2010 (edytowane) dziwicie ze ze pod metro ofermi ma wiecej fpsow ? a pamietacje call of juarez i hd2900 ? tam wygrywala z 8800 :D taka sama sytuacja metro jest pisane konkretnie pod ofermiego a call of juarez bylo pisane pod hd2900 dziekuje za uwage. a w wakacje zycze niskich temperatur na ofermi :D Edytowane 4 Kwietnia 2010 przez czullo Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
pix3l Opublikowano 4 Kwietnia 2010 Zgłoś Opublikowano 4 Kwietnia 2010 Komputronik ma w ofercie GTX'a 480 z 'Przypuszczalnym terminem dostawy 12-04-2010'. Cena 2000zł. Kto już kupił?:] Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
R4VeN_pl Opublikowano 4 Kwietnia 2010 Zgłoś Opublikowano 4 Kwietnia 2010 W totka jakbym kumulację 10 mln PLN wygrał to bym tego nie kupił. Produkt od czapy, cena podobnie. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
chemiczny_ali Opublikowano 4 Kwietnia 2010 Zgłoś Opublikowano 4 Kwietnia 2010 dziwicie ze ze pod metro ofermi ma wiecej fpsow ? a pamietacje call of juarez i hd2900 ? tam wygrywala z 8800 :D taka sama sytuacja metro jest pisane konkretnie pod ofermiego a call of juarez bylo pisane pod hd2900 dziekuje za uwage. a w wakacje zycze niskich temperatur na ofermi :D Problem w tym, że taki hd2900 zbierał cięgi na każdym polu, a ten "ofermi" jakoś daje radę. Chociaż widać pewne podobieństwa. Architektura hd5870 to nic innego jak modyfikacja hd2900, który swego czasu był dość poważnym niewypałem. "Ofermi" aż takim niewypałem nie jest (bo wydajnością się jako tako broni), ale podobieństwa są dość oczywiste (pobór prądu, temperatura) jak i pewne postawienie na przyszłość czy opłacalne czas pokaże :) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Keniger Opublikowano 4 Kwietnia 2010 Zgłoś Opublikowano 4 Kwietnia 2010 Byłem gotów nabyć ofermię nawet za 2K gdyby oferowała wydajność taką jak pokazywana w benchmarku Heaven's i Far Cry 2. A tu kupa! Tyle miesięcy czekania a te bambusy serwują wydajność niewiele wyższą niż 5870. No dobra karta może i w niektórych grach pokazuje pazur (Far Cry 2, GTA IV) i choćby dla takiej wydajności byłaby niezłą konkurencją dla Ati. Ale panowie taka "cisza", "chłód" i "niski pobór prądu" przemawiają za tym aby cenę zbili do 1300zł to może jeszcze ktoś by się zastanowił. Ale 1800zł to robienie ze mnie głupka. Jak można wciskać komuś taki kit przed premierą z tymi testami (Far Cry 2, Heaven's) i serwować newsy jaki to będzie power a w dniu premiery kiedy wychodzi na to jakie to bagno nie ma nawet kart w sklepie. To po kiego... było się tak chwalić i powstrzymywać jeszcze niezdecydowanych z zakupem karty. Aby w dniu premiery mogli sobie strzelić w łeb? Na yootube jest filmik z gościem który przedstawia test na karcie GTX 480 i oglądałem go na kilka dni przed premierą i reporter który oglądał ten test (w siedzibie nie wiem czy przypadkiem Nvidii), pyta się kolesia - "Czy nowa karta będzie lepsza od konkurencji" a koleś na to - "mam nadzieję". No rzesz koleś zareklamował produkt :) Jeśli ktoś zaoferuje te karty w PL to chyba tylko pasjonaci ją kupią, bo jeśli ktoś wyda ciężko zarobione 2K na tę kartę, to musi być idiotą. Za 1000zł można mieć 5850@5870 + dokupić chłodzenie i zrobić kartę niesłyszalną w cenie 5870. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
fllanker Opublikowano 5 Kwietnia 2010 Zgłoś Opublikowano 5 Kwietnia 2010 Byłem gotów nabyć ofermię nawet za 2K gdyby oferowała wydajność taką jak pokazywana w benchmarku Heaven's i Far Cry 2. A tu kupa! Tyle miesięcy czekania a te bambusy serwują wydajność niewiele wyższą niż 5870. No dobra karta może i w niektórych grach pokazuje pazur (Far Cry 2, GTA IV) i choćby dla takiej wydajności byłaby niezłą konkurencją dla Ati. Ale panowie taka "cisza", "chłód" i "niski pobór prądu" przemawiają za tym aby cenę zbili do 1300zł to może jeszcze ktoś by się zastanowił. Ale 1800zł to robienie ze mnie głupka. Jak można wciskać komuś taki kit przed premierą z tymi testami (Far Cry 2, Heaven's) i serwować newsy jaki to będzie power a w dniu premiery kiedy wychodzi na to jakie to bagno nie ma nawet kart w sklepie. To po kiego... było się tak chwalić i powstrzymywać jeszcze niezdecydowanych z zakupem karty. Aby w dniu premiery mogli sobie strzelić w łeb? Na yootube jest filmik z gościem który przedstawia test na karcie GTX 480 i oglądałem go na kilka dni przed premierą i reporter który oglądał ten test (w siedzibie nie wiem czy przypadkiem Nvidii), pyta się kolesia - "Czy nowa karta będzie lepsza od konkurencji" a koleś na to - "mam nadzieję". No rzesz koleś zareklamował produkt :) Jeśli ktoś zaoferuje te karty w PL to chyba tylko pasjonaci ją kupią, bo jeśli ktoś wyda ciężko zarobione 2K na tę kartę, to musi być idiotą. Za 1000zł można mieć 5850@5870 + dokupić chłodzenie i zrobić kartę niesłyszalną w cenie 5870. jestem tego samego zdania dali ciala na calej lini... niewspomniales jeszcze o wisience na torcie :) czyli zachlannosci na prad :D, gdyby ati mialo takie dowoltowanie to pewnie z GPU wycisneli by z 1,5 Ghz hehe Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość shoxeh Opublikowano 5 Kwietnia 2010 Zgłoś Opublikowano 5 Kwietnia 2010 jestem tego samego zdania dali ciala na calej lini... niewspomniales jeszcze o wisience na torcie :) czyli zachlannosci na prad :D, gdyby ati mialo takie dowoltowanie to pewnie z GPU wycisneli by z 1,5 Ghz hehe Właśnie o to chodzi mniej więcej. Fanboye NV podniecają sie niby 'najwydajniejsza jednordzeniowa karta', ale gdyby ATI zrobilo swoja karte jednordzeniowa ktore pobieralaby tyle samo [W] to wtedy ta karta zjadłaby fermi w każdym zastosowaniu. A w tej chwili ta 'najwydajniejsza karta jednordzeniowa' od NV, ciagnie 2x wiecej [W] przy wydajności 5-10% wyższej... no czyż to nie FAIL na całej linii? Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
gmt Opublikowano 5 Kwietnia 2010 Zgłoś Opublikowano 5 Kwietnia 2010 Nie bardzo wiem o co jest tu wojna. Z góry wiadomo kto wygrał... Dla ATI to najlepszy okres w którym się odkuje jak nigdy, dla Nvidii i jej partnerów biznesowych to kolejny rok posuchy. Wszyscy przecież wiemy, że seria GTX200 była wydajniejsza od HD4xxx średnio o 10%. Jednak koszt produkcji GPU i karty NV był także o 70-90% większy niż produktu ATI.... Ati w 2008 zaskoczyło Nv niskimi kosztami produkcji i sprzedaży a także wysoką wydajnością w stosunku do ich najwydajniejszych układów no i oczywiście ceną końcową. Skąd nagle nvidia zaprzestała produkować GPU GTX2xx gdy Ati wypuściło serię HD5xxx? bo seria HD5xxx okazała się średnio o 20% wydajniejsza od nv a ceny nvidia już nie mogła zbijać by mogła zarabiać na tym układzie. Dlatego niewielekie ilości tych układów by chociaż coś dac zarobić jej kooperantom. Obecnie mamy podobny układ. 1. Może dla niektórych konsumentów akceptujących hałas, temperatury i pobór prądu kosztem 5-10% wyższej wydajności od HD5870 skuszą sie na ich obecny produkt ale dla samej Nvidii wielu jej dotychczasowych klientów (którzy nie kupią tego produktu) a także dla jej partnerów biznesowych z biznesowego punktu widzenia to totalna klęska i porażka zarazem. 2. Fanboje Nvidii cieszą się z 10% przewagi nad średnią półką wydajnościową w ATI (HD5870) zapominając, że w porównaniu bliżej jej do HD5970 i jeśli porównywać GTX480 tj. kartę doższą o 400-500 zł od HD5870 to czemu nie porównywać karty HD5970 droższej o 400-500 zł od GTX480? (natomiast obie ceciach!ą się podobnym poborem prądu). Pyrrusowe zwyciestwo nad prostym układem jakim jest HD5870 swiadczy tylko o bardzo słabej architekturze FERMI bo jak można porównywać ze sobą karty, jedną która ma wszystkiego o 50% więcej do drugiej... (ROP, SP, szynę pamięci, liczbę tranzystorów, wielkość pamięci, wielkość GPU ) i do tego mającą o 70-80% mniejszy uzysk z wafla w porównaniu z ATI5870?. To tak jak by chcieć konkurować i sprzedawać rybakom "lotniskowiec" w cenie kutra rybackiego :). Gdyby to ATI miało 6 miesięczną stratę do Nv i teraz wypuściła HD5870 to też byłaby to seria zapewne wydajniejsza od obecnej serii NV a osiągnięta zapewne w ten sposób = (1200mhz na GPU w tym TDP=300W, przy wyrafinowanym i skomplikowanym chłodzeniu, wytwarzająca ogromy hałas i grzejąca sie do >100C itd). Nawet Ci którzy piszą, że DX11 jest sporo wydajniejszy w GTX480 (i zgadzam sie z tym) tylko, że brak obecnie gier wykorzystujących tą przewagę w GTX480. Bo ile z Was ma Windows7 który to pozwala cieszyć się Dx11 ilu z Was ma monitory z rozdzielczością 2560x1600? Więc na dziś dzień i tak zapewne większośc co najwyżej posiada monitory 1650x1080 ewentualnie 1920x1080 w których to obie karty dają sobie spokojnie radę. Natomiast za pół roku jak powstaną owe gry w Dx11 to będą już nowe poprawione karty z wydajniejszymi tesselatoami z serii Fermi2 lub HD6xxx a kosztujące zapewna sporo mniej, biorące mniej prądu i ceciach!ące sie niższym generowanym hałasem. Więc na dzień dzisiejszy zakup GTX480 jest totalnie nie przemyślany i nie warty uwagi. To moje zdanie na ten temat. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
chemiczny_ali Opublikowano 5 Kwietnia 2010 Zgłoś Opublikowano 5 Kwietnia 2010 Właśnie o to chodzi mniej więcej. Fanboye NV podniecają sie niby 'najwydajniejsza jednordzeniowa karta', ale gdyby ATI zrobilo swoja karte jednordzeniowa ktore pobieralaby tyle samo [W] to wtedy ta karta zjadłaby fermi w każdym zastosowaniu. A w tej chwili ta 'najwydajniejsza karta jednordzeniowa' od NV, ciagnie 2x wiecej [W] przy wydajności 5-10% wyższej... no czyż to nie FAIL na całej linii? Ja tutaj widzę Fanboy'ów tylko jednej firmy. Jak mowa jest o wydajności to przytaczają wszystkie inne argumenty tylko nie te potrzebne. Powyższy post jest takim przykładem mówi o tym co by było (gdyby, pobieralaby, zjadłaby), ale nie na dzień dzisiejszy nie ma! Czy będzie? Czas pokaże. Co do jednego, czy 5970 mozna postawić w szranki z GTX480. Pewnie można, tylko dla niektórych (np. dla mnie) 5970 jest skreślony zanim popatrzymy na perwsze testy. A dlaczego? Już pisałem MIKROPRZYCIĘCIA! Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
gmt Opublikowano 5 Kwietnia 2010 Zgłoś Opublikowano 5 Kwietnia 2010 (edytowane) Co do jednego, czy 5970 mozna postawić w szranki z GTX480. Pewnie można, tylko dla niektórych (np. dla mnie) 5970 jest skreślony zanim popatrzymy na perwsze testy. A dlaczego? Już pisałem MIKROPRZYCIĘCIA! Po pierwsze. Miałeś kiedyś HD5970?. Więc nie pisz, o mikroprzycięciach, że to standard w tej karcie, bo to w dużej mierze zależy od konkretnego konfigu (procesor, płyta główna itd). Po drugie. Jesli mówisz o wydajności to akurat HD5970 jest wydajniejszy od GTX480 bez dwóch zdań. I GTX480 nie jest najwydajniejszą kartą graficzną. Po trzecie. Jeśli dla Ciebie wadą są mirkoprzycięcia to dla innych wadą jest chłodznie GTX480 (suszarka i wysokie temperatury) Mikroprzycięcia będą standardem w GTX480 latem gdy temperatury rdzenia będą dochodzić do 105C i rdzeń będzie wchodził w tryb awaryjny) Potwierdzone w testach. Edytowane 5 Kwietnia 2010 przez gmt Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
chemiczny_ali Opublikowano 5 Kwietnia 2010 Zgłoś Opublikowano 5 Kwietnia 2010 (edytowane) Ad.1 Nie, nie miałem i nigdy się na to nie skuszę. Powód patrz wyżej. A że się spytam Ty miałeś? Ad.2 Nigdzie nie napisałem, że jest inaczej. Ad.3 Z tymi wadami można sobie poradzić z przycięciami nie! Edytowane 5 Kwietnia 2010 przez chemiczny_ali Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
gmt Opublikowano 5 Kwietnia 2010 Zgłoś Opublikowano 5 Kwietnia 2010 Ad.1 Nie, nie miałem i nigdy się na to nie skuszę. Powód patrz wyżej. A że się spytam Ty miałeś? To tak jak gadanie o smaku lodów z odgórnym do nich uprzedzeniem a których się nigdy w życiu nie jadło. Wszystko w tym temacie. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
chemiczny_ali Opublikowano 5 Kwietnia 2010 Zgłoś Opublikowano 5 Kwietnia 2010 Buehehehe jasne to wszystkie opinie o tym zjawisku są wyssane z palca :lol2: Ciekawostką jest, że opinie mówią o występowaniu zjawiska niezależnie od producenta, ale to chyba jakiś spisek... Tyle w temacie :lol: Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
mateo1977 Opublikowano 5 Kwietnia 2010 Zgłoś Opublikowano 5 Kwietnia 2010 Ad.1 Nie, nie miałem i nigdy się na to nie skuszę. Powód patrz wyżej. A że się spytam Ty miałeś? Ad.2 Nigdzie nie napisałem, że jest inaczej. Ad.3 Z tymi wadami można sobie poradzić z przycięciami nie! Trochę nieroztropnie piszesz nie mając z tą kartą nigdy do czynienia:) Byłem posiadaczem gtx295 jak i jestem teraz posiadaczem hd5970 i powiem Ci że jesteś w błędzie oceniając grafę której nie miałeś. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
chemiczny_ali Opublikowano 5 Kwietnia 2010 Zgłoś Opublikowano 5 Kwietnia 2010 (edytowane) Jak wyjaśnisz zachowanie kart w 28s. filmu? Pisząc dalej już swego czasu pisał Focus o dziwnym spadku fps po dzwonie w drzewo (chyba w Dircie)? Oczywiście również nieprawda? :D Edytowane 5 Kwietnia 2010 przez chemiczny_ali Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
ArreatPL Opublikowano 5 Kwietnia 2010 Zgłoś Opublikowano 5 Kwietnia 2010 Nawet Ci którzy piszą, że DX11 jest sporo wydajniejszy w GTX480 (i zgadzam sie z tym) tylko, że brak obecnie gier wykorzystujących tą przewagę w GTX480.Rzeczywiście, miażdząca procentowa przewaga w DX11 dla Fermi, ale co to za przewaga jak gra nie chodzi płynnie a skok 100% to zmiana z 13fps na 22fps? ... @Chemiczny_Ali:ale z ciebie desperat. Poza tym, ATi konsekwentnie od serii 3xxx walczy z mikroprzycięciami i następuje ich redukcja. Poza tym, jeżeli kupuje się 5970 to trzeba i zadbać żeby procesor miał czym nakarmić kartę - a na ten moment takiego chyba nie ma - więc jakieś-tam mikroprzycięcia będą, ale bez przesady - ATi naprawdę zwalczyło mikroprzycięcia w dużej mierze... ;] Bez kitu, desperacja chemicznego i jego zagmatwana retoryka (brak jej, w fakcie) sprawia że nachodzi mi myśl "wyślij sms o treści pomoc" - może byśmy kupili tego 480 żeby się najzwyczajniej w świecie uciszył w tej swojej desperacji? :> Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
kkNd! Opublikowano 5 Kwietnia 2010 Zgłoś Opublikowano 5 Kwietnia 2010 Czyli ludzie ktorzy w tym siedza od zawsze sie myla i mamy uwierzyc Tobie, ze zadnych przyciec nie ma? Procesora tez nie obciaza bardziej pewnie? Dajcie sobie spokoj z udowadnianiem wyzszosci jednej karty nad 2ga ;) Kazdy stawia sobie inne priorytety i zgodnie z nimi kupuje. Dla mnie np liczy sie najbardziej stosunek wydajnosci do ceny wsrod topowych kart i tak samo nie pogodze sie z pradozernoscia, cena czy cieplem generowanym przez nowe gf'y, jak z tymi przycieciami na multigpu. Jezeli ktos ma duzo kasy i bardzo dobre wc to najlepszym wyborem bedzie dla niego 480tka, ale to rozwiazanie raczej dla osob bezkompromisowych ;) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Caleb Opublikowano 5 Kwietnia 2010 Zgłoś Opublikowano 5 Kwietnia 2010 (edytowane) A ja się tylko wtrącę odnośnie tych potwornych i równie legendarnych mikroprzycięć :) Otóż miałem 8800GT SLI, teraz GTX 295 i o ile na 2x8800GT coś takiego faktycznie czami mi się wydawało przyuważyć, to na GTX 295 praktycznie brak tejże dolegliwości - akurat z grami mam trochę do czynienia i mogę przyznać z ręką na sercu, iż śmiga się absolutnie komfortowo – przed pobraniem HD 5970 martwił bym się raczej o sterowniki i wsparcie dla CF ze strony softu, niż mikroprzycięcia :> Ogólnie to liczyłem, iż GTX 480 będzie na tyle wydajny żeby powoli żegnać się z GTX 295 – niestety – chyba się jeszcze trochę razem pomęczymy :> Generalnie, zawsze byłem za NV, bo nie tyle nie przepadam za ATI co zwyczajnie przyzwyczaiłem się do GeForców, ale GTX 480 na dzień dzielniejszy w zamian za GTX 295 bym nie wymienił. Cóż – jeszcze nigdy tak wielu nie czekało tak długo, na tak niewiele za taką cenę :D Jak dla mnie jedyna nadzieja w tym, że NV szybko poprawi uzysk, zbije ceny, zwiększy nieco wydajność i tak jak było w przypadku 7800 - 7900, niebawem dostaniemy do rąk nowe, wydajniejsze, chłodniejsze i tańsze modele tym bardziej iż wydaje mi się, że GTX 490 z 512 CUDA, 2GB pamięci i podbitymi taktami to wcale nie jest pobożne życzenie – jeśli tylko postawione wyżej warunki zostaną spełnione. Edytowane 5 Kwietnia 2010 przez Caleb Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
chemiczny_ali Opublikowano 5 Kwietnia 2010 Zgłoś Opublikowano 5 Kwietnia 2010 (edytowane) (...) Poza tym, ATi konsekwentnie od serii 3xxx walczy z mikroprzycięciami i następuje ich redukcja. Poza tym, jeżeli kupuje się 5970 to trzeba i zadbać żeby procesor miał czym nakarmić kartę - a na ten moment takiego chyba nie ma - więc jakieś-tam mikroprzycięcia będą, ale bez przesady - ATi naprawdę zwalczyło mikroprzycięcia w dużej mierze... ;] No to są czy nie ma? Bez kitu, desperacja chemicznego i jego zagmatwana retoryka (brak jej, w fakcie) sprawia że nachodzi mi myśl "wyślij sms o treści pomoc" - może byśmy kupili tego 480 żeby się najzwyczajniej w świecie uciszył w tej swojej desperacji? :> Ja tu widzę desperację w poczynaniach niektórych. Jadą po karcie, bo nie będzie obniżek, bo cena za wysoka, bo za dużo prądu itd. itp. Gdyby karta spełniła by oczekiwania to jak już pisałem i tak nic by się nie kupiło. Może wróćmy do konkretów. A mianowicie wydajności. Pisanie, że 480 to porażka (podkreślam piszę o wydajności) jest nieprawdą (oczywiście porażka dla tych co oczekiwali wiadomo czego :wink: ) jest to pewne rozczarowanie (głownie pobór prądu i temperatura), ale gdzie tam porażka. Więszką porażką był wspomniany wyżej hd2900, a i tak nie było wielkiego płaczu :wink: Edytowane 5 Kwietnia 2010 przez chemiczny_ali Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
sideband Opublikowano 5 Kwietnia 2010 Zgłoś Opublikowano 5 Kwietnia 2010 @ArreatPL nie rozśmieszaj mnie z tą eliminacją mikroprzycięć i czy innymi negatywnymi zjawiskami występującymi w cf/sli , tam gdzie się da coś poprawić to na bieżąco w sterach jest poprawiane.CF/SLI jest ułomne i niczym już tego nie poprawisz. Wystarczy , że miałem sli i nie zamierzam się z tym ustrojstwem męczyć , na cf są te same kwiatki. Także jedynie słuszny wybór to karta na jednym gpu. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość potfur Opublikowano 5 Kwietnia 2010 Zgłoś Opublikowano 5 Kwietnia 2010 (edytowane) Jak dla mnie jedyna nadzieja w tym, że NV szybko poprawi uzysk, zbije ceny, zwiększy nieco wydajność i tak jak było w przypadku 7800 - 7900, niebawem dostaniemy do rąk nowe, wydajniejsze, chłodniejsze i tańsze modele tym bardziej iż wydaje mi się, że GTX 490 z 512 CUDA, 2GB pamięci i podbitymi taktami to wcale nie jest pobożne życzenie – jeśli tylko postawione wyżej warunki zostaną spełnione. Dokładnie, tylko pytanie w jakim czasie nV będzie w stanie dojść do w/w przez Ciebie ~caleb stanu.Bo na razie, to co niektórzy naprawdę duzi kooperanci się zaczynają powoli, acz sukcesywnie wykruszać (vide XFX) - poza tym powiedzmy sobie szczerze, seria GTX 260/280/285 nie jest w stanie walczyć z HD5xxx (chodzi mi o wydajność/koszty/uzysk/ceny w porównaniu do ATi) - a seria GTX 480/470 to już w ogóle pod tym względem tragedia - i co, użytkownicy będą czekali (a właściwie z jakiej racji ? - bo nV będzie sobie pokazywała demka technologiczne "jak to będzie ładnie i pięknie jak wprowadzimy masowo teselację" np. ? - kto będzie za tym czekał ? - ile czasu upłynie zanim developerzy zaczną realnie wykorzystywać te funkcję ?), sytuacja dla nV nie jest za wesoła - ot co.NVidia będzie się bawiła w czarodzieja "nowych technologii" (które będą wykorzystywane w co najwyżej 5% całego rynku), a w tym czasie ATi usprawni jeszcze bardziej swoją serię HD5xxx i będzie zdobywała realnie rynek.Kosztem nV. ps. jeszcze jedna sprawa - skoro nV miała taki problem z przejściem na niższy proces produkcyjny serii GTX 260/275/280/285 - do dziś tego nie zrobiła na masową skalę (a co za tym idzie zwiększenia dostępności/obniżki ceny/zwiększenia uzysku z wafla/opłacalności etc.) - to ja sobie nie wyobrażam jak ma zamiar wyjść z tego impasu z takim "potworkiem" jakim jest seria GTX480/470.A same peany co niektórych osób tego nie zmienią, bo nawet te osoby kupią ATi (taki ciekawy "paradoks" - "ni to śmieszny, ni to straszny"). Edytowane 5 Kwietnia 2010 przez potfur Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
sideband Opublikowano 5 Kwietnia 2010 Zgłoś Opublikowano 5 Kwietnia 2010 Strata xfx to żadna strata , jak dla mnie to zysk. Pomimo , że praktycznie wszystkie ich karty to konstrukcje referencyjne(pcb) to awaryjność ich kart jest wysoka. A taki partner nikomu nie jest potrzebny , pierwotny rynek xfx to USA. Nic nie bój nvidia poradzi sobie , porównanie gt100 do serii 2900 od ati to niezłe nadużycie. Teraz czas poczekać na średni segment , jak tam coś ciekawego pokarzą to nv wyjdzie na swoje. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość potfur Opublikowano 5 Kwietnia 2010 Zgłoś Opublikowano 5 Kwietnia 2010 (edytowane) ~sideband Strata xfx to żadna strata , jak dla mnie to zysk Ke ? Ty chłopie śnisz, czy jeszcze się nie obudziłeś ? Tak pierwotny rynek to USA, ale nie tylko to (Europa, Azja) - popatrz sobie ile sprzedaje XFX na rynku, to Ci się sny rozwieją. ps. to tak jak bym sobie napisał w stylu "widzi mi się" że strata przez ATi takiego partnera jakim jest Sapphire (albo His) to "żadna strata". XFX jest jest obecnie światowym liderem w globalnej ilości sprzedaży kart graficznych NVIDIA / ATI. Podobnie do firm BFG i EVGA, XFX oferuje karty graficzne z układami fabrycznie podkręconymi. - serii GTX 480/470 już nie będzie sprzedawać/produkować. Ranking największych producentów kart graficznych. 1.Sapphire 2. PowerColor 3. XFX Faktycznie, utrata XFX to jest "nic".Pryszcz na [gluteus maximus], nie ? Edytowane 5 Kwietnia 2010 przez potfur Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Caleb Opublikowano 5 Kwietnia 2010 Zgłoś Opublikowano 5 Kwietnia 2010 Cóż, mnie się wydaje że Nv sama się postawiła pod ścianą. Dalsze zwlekanie z premierą nowych GF nie miało sensu, bo lepiej mieć produkt nie do końca spełniający obietnice, ale jednak istniejący (tutaj to tak trochę na wyrost ;]) i czymś włączyć z konkurentem o klienta. Oddanie rynku i patrzenie z boku to czysta głupota. Chłopaki postanowili więc wydać to co mają, a dalej na 100% pracują nad tym chipem i za jakieś 6 miechów spodziewać się możemy wielkiego comebacku „Zielonych”. ATI jest teraz w komfortowej sytuacji, ale odkąd pamiętam to na rynku GPU sytuacja potrafiła się diametralnie zmienić w ciągu kilku miesięcy. Ogólnie, to gdyby nie cena i szalone temperatury nie byłoby powodu do płaczu – nawet pomimo obsuwy. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
chemiczny_ali Opublikowano 5 Kwietnia 2010 Zgłoś Opublikowano 5 Kwietnia 2010 (...) XFX jest jest obecnie światowym liderem w globalnej ilości sprzedaży kart graficznych NVIDIA / ATI. Podobnie do firm BFG i EVGA, XFX oferuje karty graficzne z układami fabrycznie podkręconymi. - serii GTX 480/470 już nie będzie sprzedawać/produkować. XFX długo nie było w Europie i jakoś nikt nie płakał. Pojawili się jakoś niedawno i jak widać na niedługo. XFX to dla nV partner jak Shapphire dla AMD? Link z wiki to normalnie konkret, a to pogrubione to normalnie śmiech. Jakiś PR z XFX to pisał? Ja tam nie zamierzam dokarmiać, więc konczę :wink: pzdr Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Caleb Opublikowano 5 Kwietnia 2010 Zgłoś Opublikowano 5 Kwietnia 2010 (edytowane) Cóż, mnie się wydaje że Nv sama się postawiła pod ścianą. Dalsze zwlekanie z premierą nowych GF nie miało sensu, bo lepiej mieć produkt nie do końca spełniający obietnice, ale jednak istniejący (tutaj to tak trochę na wyrost ;]) i czymś włączyć z konkurentem o klienta. Oddanie rynku i patrzenie z boku to czysta głupota. Chłopaki postanowili więc wydać to co mają, a dalej na 100% pracują nad tym chipem i za jakieś 6 miechów spodziewać się możemy wielkiego comebacku „Zielonych”. ATI jest teraz w komfortowej sytuacji, ale odkąd pamiętam to na rynku GPU sytuacja potrafiła się diametralnie zmienić w ciągu kilku miesięcy. Ogólnie, to gdyby nie cena i szalone temperatury nie byłoby powodu do płaczu – nawet pomimo obsuwy. ps. to tak jak bym sobie napisał w stylu "widzi mi się" że strata przez ATi takiego partnera jakim jest Sapphire (albo His) to "żadna strata". To inna bajka, HIS i Spphire to wyłączni partnerzy handlowi ATI/AMD, zaś XFX "zdradził" NV i grał na da fronty – sami zieloni raczej nie rozpaczają :> Gorzej gdyby to było Evga lub BFG - ale to raczej z prestiżowego punktu widzenia, niż ekonomicznego w tym przypadku. Edytowane 5 Kwietnia 2010 przez Caleb Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
sideband Opublikowano 5 Kwietnia 2010 Zgłoś Opublikowano 5 Kwietnia 2010 Obchodzi cie sytuacja xfx? To samo co na pclabie xfx ucieka od nvidii , to trzeba płakać :lol2:. Ma mało kogo interesuje sytuacja tej firmy i praktycznie nie będzie miało wpływu na sprzedaż kart nv , xfx nie chce gt100 , bo są w ciężkiej sytuacji i nie chcą ryzykować. Ja p... uczepili się tej nvidii jak rzep psiego ogona. Nie pasuje nv to rozwiązanie jest jedno wybieracie produkt od ati i daj cie se na luz. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...