Gość Firekage Opublikowano 10 Września 2009 Zgłoś Opublikowano 10 Września 2009 (edytowane) Doceń trochę wysiłek kap'a i poczytaj te materiały w linkach, a nie gap się jak idiota w obrazki szukając cyferek z FRAPS'a. "I played Dirt 2, a DX11 title at 7680 x 3200 and saw definitely playable frame rates. I played Left 4 Dead and the experience was much better. Obviously this new GPU is powerful, although I wouldn't expect it to run everything at super high frame rates at 7680 x 3200." "The actual resolution being rendered at is 7680 x 3200; WoW got over 80 fps with the details maxed." Zadowolony? Sory , ale mam wierzyc w jakims marketing? Co znaczy , ze on "gral"? Odpalil wysoka rozdzielczosc i polecial po wszystkich detalach? Wywalil AA , AF , dal low? W ogole co znaczy "playable"? "Playable" w GTA4 na konsoli to ponizej 20FPS. Jesli bawi Cie takie "playable" przy takich rozdzielczosciach to powodzenia. Juz nie mowie o tym , ze tam pisza o "demie Dirta 2". Demie czyli? Widziales w ogole to : but DiRT 2, a DirectX 11 game, ran at more or less acceptable frame rates and looked stunning doing it, as well. WoW - no super , 80FPs w grze , ktora nie wyglada. To moze zaraz beda chwalic sie jak Diablo 2 chodzi przy 15 monitorach? Edytowane 10 Września 2009 przez Firekage Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
sideband Opublikowano 10 Września 2009 Zgłoś Opublikowano 10 Września 2009 Ten dirt co oni tam pokazują to pewnie ma dx9 , a napisać to mogą nawet dx12. Jak zwykle marketing się leje , a zero konkretów. Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
radiergummi Opublikowano 10 Września 2009 Zgłoś Opublikowano 10 Września 2009 (edytowane) @Firekage http://www.pcgameshardware.com/aid,689378/...ractice/?page=2 WoW potrafi stanowić wyzwanie dla topowych grafik. Setek FPS nie wyciągają. P.S. przynajmniej zacząłeś coś czytać poza oglądaniem obrazków :f Edytowane 10 Września 2009 przez radiergummi Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość Firekage Opublikowano 10 Września 2009 Zgłoś Opublikowano 10 Września 2009 (edytowane) http://www.pcgameshardware.com/aid,689378/...ractice/?page=2 WoW potrafi stanowić wyzwanie dla topowych grafik. Setek FPS nie wyciągają. P.S. przynajmniej wreszcie zacząłeś czytać poza oglądaniem obrazków :f I zapewne nie jest to zasluga np. slabej optymalizacji? Gdyby tam Crysis mial 80FPS tak bylbym oczarowany...ale nie WoW , bez przesady. Rownie dobrze mozna wziac innego crapa , ktory slabo chodzi i mowic , ze na tych nowich po prostu leci. Patrzac na wykresy WoWa pod katem GTX260 i 19x12 ja tam widze 55FPS. To na pewno plynnosc. Teraz , ponoc 5870 miala byc okolo 50% szybsza od 4890. Skad takie wysokie rozdzielczosci i te 80FPS? Skad wiesz , ze nie czytalem wczesniej i celowo nie ironizuje? Nie lykam tego co PR pociska. Do dzis pamietam czym mial byc Phenom , co robilo AA w serii 2xxx. Chwala sie "jakims demem na jakichs ustawieniach" gry , ktorej nie ma i pisza o "demie" jak i "playable framerate" oraz o "dx11" , a ten jest dla kazdego z nas rozny , pozniej wyskakuja z WoWem...ktory nie wyglada , ale ponoc wymaga... E... Edytowane 10 Września 2009 przez Firekage Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
panzar Opublikowano 10 Września 2009 Zgłoś Opublikowano 10 Września 2009 (edytowane) powiem wam szczerze że kusi mnie taka trójmonitorowa opcja :) z tego co czytałem co udało się dla Kap'a wydobyć z czeluści internetu, to trzy monitory będzie dało się podłączyć do 5850 a ten w najlepszej opcji będzie ogromnym skokiem wydajności :D nVidio drżyj! EDIT: z tego co widziałem to tam chyba w każdym zestawie używali albo podwójnego CF albo pełnego, a wow to, choć kiepawa i stara gra, to jednak zagrywają się w nią miliony ludziów, wiec nawet te 80 fps na wielu monitorach to jest jednak wyczyn. Edytowane 10 Września 2009 przez prznar1 Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość Firekage Opublikowano 10 Września 2009 Zgłoś Opublikowano 10 Września 2009 (edytowane) No , poczekamy na AA i AF w ATI... Moze i nawet CCC przemodeluja :lol2: bo troche obciachowo , ze czesc ssob uzywa ATT. wyjasnienie - celowo ironizuje by ostudzic zapaly... Edytowane 10 Września 2009 przez Firekage Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Granat Opublikowano 11 Września 2009 Zgłoś Opublikowano 11 Września 2009 (edytowane) http://i32.tinypic.com/2s0xnc2.jpg 6 + 8 pin??? swoją drogą olbrzym straszliwy... :wink: Edytowane 11 Września 2009 przez pemu Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
kap Opublikowano 11 Września 2009 Zgłoś Opublikowano 11 Września 2009 (edytowane) Zasilanie HD5870 Six to 6+8 pin. Zwykła wersja HD5870 może mieć 6+6 pin. AMD's next-gen GPU powers Crysis on an iPhone http://arstechnica.com/hardware/news/2009/...n-an-iphone.ars AMD unveiled its next-gen GPU, and secretive networked gaming company OTOY used it to power a demo of Crysis running on an iPhone. Believe it or not, it really worked. Co prawda nie bezpośrednio, ale przez internet :> AMD Unveils ATI Eyefinity Six Monitor Output http://www.tomshardware.com/news/amd-ati-e...nitor,8637.html AMD Eyefinity 24 Display Tech Demo On Linux http://www.phoronix.com/scan.php?page=news...m&px=NzUyNQ Edytowane 11 Września 2009 przez kap Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
kap Opublikowano 11 Września 2009 Zgłoś Opublikowano 11 Września 2009 (edytowane) http://www.hardforum.com/showthread.php?t=1450905 The NDA lifts on September 23, 2009. Most of the rumors you have read are true. I went to the USS Hornet in Alameda, CA (nice to see you again Kyle) the cards I saw (ATI 5870) should be out around the time windows 7 goes retail. The 5870 will be able to drive 3 30 inch monitors at the same time. I was one of 15 people to be dragged to the bowls of the ship and saw some really nice tech demos. ATI also is going open source with this product. Open CL and direct input. The physics were amazing as well. All Open CL originated. The Physics are going to be run on BOTH the GPU and CPU. Really nice scaling. I think nvidia is in trouble this round. The Price points are gonna be really competative as well. Edytowane 11 Września 2009 przez kap Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
kkNd! Opublikowano 11 Września 2009 Zgłoś Opublikowano 11 Września 2009 ale bydle... ciekawe jak bedzie z wodowaniem tego cholerstwa :unsure: wiadomo juz cos jaki bedzie rozstaw otworow mocujacych? Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
maxymili Opublikowano 11 Września 2009 Zgłoś Opublikowano 11 Września 2009 (edytowane) Ciekawe co na to nvidia i jej gt300... jak się spóźnią 6 miechów to raczej nie wygrają z Radeonami 5000....Ja widzę w tym taki myk, że wydadzą karty 3 miechy później ale dzięki temu będzie mogła być trochę mocniejsza od produktu ATI. Nie przesadzą z wydajnością dzięki czemu koszty ich nie zabiją a strata trzech miesięcy zaboli trochę bo święta będą, ale mimo to pozostaną w dłuższej skali liderem wydajności na czym im najbardziej zależy. Niedawno jeszcze było tak, że ati było liderem wydajności po premierze 3870x2 przez dwa dni. Teraz już dłużej. Widać że wsparcie technologiczne AMD jest skuteczne. Dziwi mnie tylko, że Intel wciąż nie potrafi robić wydajnych grafik i Larabee stoi w szczerym polu. 5870 pokonuje wcześniej deklarowana moc Larabee a premiera "super karty" Intela w 2010. Będą musieli wszystko zacząć od nowa i znów im się premiera opóźni. Edytowane 11 Września 2009 przez maxymili Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
kap Opublikowano 11 Września 2009 Zgłoś Opublikowano 11 Września 2009 (edytowane) Niektórzy potwierdzają plotki o tym, że HD5870 ma dwa rdzenie w środku... tak jak quady intela są zlepkiem dwóch procesorów dwurdzeniowych. HD5870 (Cypress XT) = XT Juniper X2 HD5850 (Cypress Pro) = Juniper Pro X2 Gołe karty http://www.czechgamer.com/novinky/5038/ATI...z-chladice.html Edytowane 11 Września 2009 przez kap Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
czullo Opublikowano 11 Września 2009 Zgłoś Opublikowano 11 Września 2009 ale nie bierzesz pod uwagi fakt ze w momencie kiedy nvidia wypusci swoje nowe karty AMD bedzie juz na ktoryms etapie projektowania kolejnej generacji kart i jak narazie to AMD wyprzeda nvidie :) Watpie zeby nvidia wypuscila w tym roku gt300 w a przyszlym roku AMD moze wypuscic poprawiana i podkrecona rewizje np HD5890 i znowu byc o krok przed nvidia :D Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
maxymili Opublikowano 11 Września 2009 Zgłoś Opublikowano 11 Września 2009 ale nie bierzesz pod uwagi fakt ze w momencie kiedy nvidia wypusci swoje nowe karty AMD bedzie juz na ktoryms etapie projektowania kolejnej generacji kart i jak narazie to AMD wyprzeda nvidie :) Watpie zeby nvidia wypuscila w tym roku gt300 w a przyszlym roku AMD moze wypuscic poprawiana i podkrecona rewizje np HD5890 i znowu byc o krok przed nvidia :DNawet na pewno tak zrobi. Ale nVidia umie zrobić większe chipy i zawsze w tej samej technologii jest w stanie zrobić wydajniejszy pojedynczy układ. Tylko muszą wiedzieć przeciw czemu mają się wyszykować bo jak zrobią zbyt wydajny, to będzie tak drogi, że przegra ceną. Dlatego dla nich to opóźnienie jest też bronią. Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
czullo Opublikowano 11 Września 2009 Zgłoś Opublikowano 11 Września 2009 Przygotuja za mocny=za drogi - przegrają Przygotuja za slaby =kolejna rewizja AMD ich zje - przegrają Wiec wcale nie wiem czy opóźnienie jest dobra bronią :) Poza tym przez te klika miesięcy na pewno stracą parę % rynku na rzecz AMD :) Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Michael86 Opublikowano 11 Września 2009 Zgłoś Opublikowano 11 Września 2009 Ja widzę w tym taki myk, że wydadzą karty 3 miechy później ale dzięki temu będzie mogła być trochę mocniejsza od produktu ATI. Nie przesadzą z wydajnością dzięki czemu koszty ich nie zabiją a strata trzech miesięcy zaboli trochę bo święta będą, ale mimo to pozostaną w dłuższej skali liderem wydajności na czym im najbardziej zależy. Nawet na pewno tak zrobi. Ale nVidia umie zrobić większe chipy i zawsze w tej samej technologii jest w stanie zrobić wydajniejszy pojedynczy układ. Tylko muszą wiedzieć przeciw czemu mają się wyszykować bo jak zrobią zbyt wydajny, to będzie tak drogi, że przegra ceną. Dlatego dla nich to opóźnienie jest też bronią. Nvidia robi wielkie i drogie chipy w produkcji, a opóźnienie 4 miechy to jest duże opóźnienie. Nie pamiętam takiej sytuacji żeby to firma, która później wydała karty była górą! Opóźnienie nigdy nie było bronią, a raczej staraniem dogonić się konkurencje i nigdy to nie wyszło. Przykłady: Jak Ati miało Radeony 9700/9800 to nvidia starała się dogonić ich serią FX i co z tego wyszło?? KLAPA!! Dalej...kiedy Ati spóźniało się z premierą HD2900 to po wypuszczeniu też miała być szybka. A co był?? przegrywała z 8800GTS 640 nie mówiąc już o GTX. Także nigdy nie było tak, by opóźnienie dawało jakąś przewagę firmie!! Widać, że droga którą wybrało AMD jest lepsza i małe a wydajne układy są tańsze i łatwiejsze w produkcji, a nie klocki takie jak GT200. Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
kap Opublikowano 11 Września 2009 Zgłoś Opublikowano 11 Września 2009 Catalysty 9.9 dzisiaj lub w nocy. http://twitter.com/CatalystMaker On a plane back to Toronto from Munich. Catalyst 9.9 should be posted today! Check the welcome page on CCC Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
ZlyDzien Opublikowano 11 Września 2009 Zgłoś Opublikowano 11 Września 2009 Lepiej żeby były poprawnie przygotowane. Poprzednie musiałem pominąć gdyż nawet po hotfixie ktory wazyl wiecej niz same stery byly bledy w wyswietlaniu grafiki. Osobiscie nie interesuje mnie ile rdzeni jest w karcie graficznej, taki jest kierunke rozwoju i tyle. Jeśli ktoś myśli ze zrobienie dużego układu o dużej mocy i wysokim kosztem jest oplacalne to niech lepiej nie zakłada wlasnej firmy. Każda karta która jest zrobiona z wykorzystaniem nowego procesu/nowej technologii/architektury jest krokiem do przodu. No chyba ze wydajnosc sie nie zmienia.. wtedy to jest taki malutki korczek.. Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
maxymili Opublikowano 11 Września 2009 Zgłoś Opublikowano 11 Września 2009 Nvidia robi wielkie i drogie chipy w produkcji, a opóźnienie 4 miechy to jest duże opóźnienie. Nie pamiętam takiej sytuacji żeby to firma, która później wydała karty była górą! Opóźnienie nigdy nie było bronią, a raczej staraniem dogonić się konkurencje i nigdy to nie wyszło. PrzykładyA BR i HD DVD? A XBox i Play Station? Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
czullo Opublikowano 11 Września 2009 Zgłoś Opublikowano 11 Września 2009 (edytowane) idąc tym samym tokiem myślenia FDD < CD <DVD :D xbox i playstation wychodza raz na 5-6 lat wiec to zle porownanie, bo nowe chipy graficzne wychodza co kilka/kilkanascie miesiecy :) Edytowane 11 Września 2009 przez czullo Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
maxymili Opublikowano 11 Września 2009 Zgłoś Opublikowano 11 Września 2009 idąc tym samym tokiem myślenia FDD < CD <DVD :D xbox i playstation wychodza raz na 5-6 lat wiec to zle porownanie, bo nowe chipy graficzne wychodza co kilka/kilkanascie miesiecy :)Nie o to mi chodziło. Xbox 360 i playstation 3. Xbox wyszedł wcześniej ale ma gorsze parametry. W końcu to PS3 odbiło się pomimo opóźnienia. HDDVD wyszło wcześniej, miało wsparcie microsoftu i toshiby a padło bo BR oferował w standardzie płyty większe o 20GB i ogólnie BR miał lepsza promocję także dzięki PS3 w którym BR był dodawany. Ale uważam, że tym razem obrona nVidii będzie bardzo trudna a pocisk ze strony ATI@AMD tak mocny, że się może rynek na dobre wywrócić. Tylko piszę co mogą jeszcze próbować zrobić a nie że im się to uda. Oczywiście o ile testy potwierdzą zapowiedzi marketingowców. A tak jak Firekage wolę poczekać na dowody niż kierować się obietnicami. Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
kap Opublikowano 11 Września 2009 Zgłoś Opublikowano 11 Września 2009 Ruby Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość Firekage Opublikowano 11 Września 2009 Zgłoś Opublikowano 11 Września 2009 A BR i HD DVD? A XBox i Play Station? Dziurawe przyklady. HD padl ponoc ze wzgledu na durna polityke w USA odnosnie cen odtwarzaczy zas Xbox mimo , ze byl wypuszczony pozniej i technologicznie miazdzyl kazda konsole tak przegral walke z PS2 zarowno w liczbie gier jak i ilosci sprzedanych konsol. PS2 sprzedala sie w ponad 100 mln. , gdy X1 ledwo cos w okolicy chyba 10. Tak na marginesie, ktos pisal wyzej , ze nV goniac ati dala ciala z FX. Owszem, chwile pozniej wydali 6xxx i to ATI przez dlugo nie mialo o czym pomazyc nie mowiac juz o Ps3.0 , ktorego ATI nie mialo , a ktory pozniej okazal sie nagle przydatny. NV stac na to i owo co widac po ilosci odgrzewancow. O czym mowie? O tym , ze to ATI musi gonic , a nie nV. Prawdopodobnie maja juz swoje , ale czekaja bo i po co maja sie spieszyc? Nie o to mi chodziło. Xbox 360 i playstation 3. Xbox wyszedł wcześniej ale ma gorsze parametry. W końcu to PS3 odbiło się pomimo opóźnienia. Ostatnio czytalem pewien dokument o tym. PS3 odbilo sie? Watpie... Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
maxymili Opublikowano 11 Września 2009 Zgłoś Opublikowano 11 Września 2009 NV stac na to i owo co widac po ilosci odgrzewancow. O czym mowie? O tym , ze to ATI musi gonic , a nie nV. Prawdopodobnie maja juz swoje , ale czekaja bo i po co maja sie spieszyc?No to w końcu mają przechlapane bo wydaja dużo później czy osiągną jeszcze przewagę wydając później? Bo z uzasadnienia jakie napisałeś wynika to drugie a wnioski na to pierwsze wyciągasz. Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Michael86 Opublikowano 11 Września 2009 Zgłoś Opublikowano 11 Września 2009 (edytowane) A BR i HD DVD? A XBox i Play Station? rozmawiamy o kartach graficznych a nie o konsolach czy napędach... Nie o to mi chodziło. Xbox 360 i playstation 3. Xbox wyszedł wcześniej ale ma gorsze parametry. W końcu to PS3 odbiło się pomimo opóźnienia. HDDVD wyszło wcześniej, miało wsparcie microsoftu i toshiby a padło bo BR oferował w standardzie płyty większe o 20GB i ogólnie BR miał lepsza promocję także dzięki PS3 w którym BR był dodawany. Jakoś nie widzę żeby PS3 przegoniło Xboxa w ilości sprzedanych sztuk. A co do specyfikacji to poczytaj dobrze...Xbox ma mocniejszą grafikę i bardziej uniwersalną i łatwiej programowalnego proca. A i grafika na Xboxsie jest znacznie jest znacznie lepsza i było wiele testów porównawczych i zawsze xbox wygrywał. Na PS3 albo błędy w grafice albo mały framerate! Tak na marginesie, ktos pisal wyzej , ze nV goniac ati dala ciala z FX. Owszem, chwile pozniej wydali 6xxx i to ATI przez dlugo nie mialo o czym pomazyc nie mowiac juz o Ps3.0 , ktorego ATI nie mialo , a ktory pozniej okazal sie nagle przydatny. NV stac na to i owo co widac po ilosci odgrzewancow. O czym mowie? O tym , ze to ATI musi gonic , a nie nV. Prawdopodobnie maja juz swoje , ale czekaja bo i po co maja sie spieszyc? Ta chwila później do serii 6xxx coś długo trwała...były FX5800 potem FX5900 i wciskanie kitu długo później seria 6xxx. Ati wtedy wydało X800XT PE, który był równie wydajny co 6800ULTRA. A jak naprawdę zaczęto korzystać z PS3.0 to już były X1900... Były takie czasy, że to Nv musiała gonić ATI i trwały dość długo... Edytowane 11 Września 2009 przez Michael86 Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość Firekage Opublikowano 11 Września 2009 Zgłoś Opublikowano 11 Września 2009 (edytowane) No to w końcu mają przechlapane bo wydaja dużo później czy osiągną jeszcze przewagę wydając później? Bo z uzasadnienia jakie napisałeś wynika to drugie a wnioski na to pierwsze wyciągasz.Przypominj sobie z laski swojej 8800GT , a pozniej GTSa i co ATI mialo na karte tej klasy? Ta karta do dzis jest sprzedawana i odgrzewana bo ma wydajnosc. Ati zblizylo sie dopiero seria 48xx. Ta chwila później do serii 6xxx coś długo trwała...były FX5800 potem FX5900 i wciskanie kitu długo później seria 6xxx. Ati wtedy wydało X800XT PE, który był równie wydajny co 6800ULTRA. A jak naprawdę zaczęto korzystać z PS3.0 to już były X1900... Były takie czasy, że to Nv musiała gonić ATI i trwały dość długo...Trwala , za to na 6xxx odpalales Splintera bez problemow czego na 8xx ATI nie zrobiles ;) Czesc osob do dzis ma takie karty. Mowisz o 19xx ,a co z seria 7 od nV i tym czyms od ATI? Dopiero 1650XT dogonil 7600GS przy czym tez mial problem z DST. Edytowane 11 Września 2009 przez Firekage Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Michael86 Opublikowano 11 Września 2009 Zgłoś Opublikowano 11 Września 2009 z tego co pamiętam to było tego obejście i Splinter cell się odpalał na X800... Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gosu Opublikowano 11 Września 2009 Zgłoś Opublikowano 11 Września 2009 Poruwnujesz 8800 do 4xxx? Głupota... Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
kwasior500 Opublikowano 11 Września 2009 Zgłoś Opublikowano 11 Września 2009 Głupota, tym bardziej, że 8800GT jest porównywalny z HD4830, a 8800GTS 512/8800GTX z HD4850. Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
maxymili Opublikowano 11 Września 2009 Zgłoś Opublikowano 11 Września 2009 Przypominj sobie z laski swojej 8800GT , a pozniej GTSa i co ATI mialo na karte tej klasy? Ta karta do dzis jest sprzedawana i odgrzewana bo ma wydajnosc. Ati zblizylo sie dopiero seria 48xx.Zbliżyło się ale jakby tak wyprzedzająco. Porównajmy najmocniejszych przedstawicieli tych architektur: GTS250 po OC i 4890, też po OC, albo nawet bez. Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...