Skocz do zawartości
XvAK

Ati Radeon Hd58xx

Rekomendowane odpowiedzi

Doceń trochę wysiłek kap'a i poczytaj te materiały w linkach, a nie gap się jak idiota w obrazki szukając cyferek z FRAPS'a.

 

"I played Dirt 2, a DX11 title at 7680 x 3200 and saw definitely playable frame rates. I played Left 4 Dead and the experience was much better. Obviously this new GPU is powerful, although I wouldn't expect it to run everything at super high frame rates at 7680 x 3200."

 

"The actual resolution being rendered at is 7680 x 3200; WoW got over 80 fps with the details maxed."

 

Zadowolony?

Sory , ale mam wierzyc w jakims marketing? Co znaczy , ze on "gral"? Odpalil wysoka rozdzielczosc i polecial po wszystkich detalach? Wywalil AA , AF , dal low? W ogole co znaczy "playable"? "Playable" w GTA4 na konsoli to ponizej 20FPS. Jesli bawi Cie takie "playable" przy takich rozdzielczosciach to powodzenia. Juz nie mowie o tym , ze tam pisza o "demie Dirta 2". Demie czyli?

 

Widziales w ogole to :

but DiRT 2, a DirectX 11 game, ran at more or less acceptable frame rates and looked stunning doing it, as well.

WoW - no super , 80FPs w grze , ktora nie wyglada. To moze zaraz beda chwalic sie jak Diablo 2 chodzi przy 15 monitorach?

Edytowane przez Firekage

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@Firekage

 

http://www.pcgameshardware.com/aid,689378/...ractice/?page=2

 

WoW potrafi stanowić wyzwanie dla topowych grafik. Setek FPS nie wyciągają.

 

P.S. przynajmniej zacząłeś coś czytać poza oglądaniem obrazków :f

Edytowane przez radiergummi

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

http://www.pcgameshardware.com/aid,689378/...ractice/?page=2

 

WoW potrafi stanowić wyzwanie dla topowych grafik. Setek FPS nie wyciągają.

 

P.S. przynajmniej wreszcie zacząłeś czytać poza oglądaniem obrazków :f

I zapewne nie jest to zasluga np. slabej optymalizacji? Gdyby tam Crysis mial 80FPS tak bylbym oczarowany...ale nie WoW , bez przesady. Rownie dobrze mozna wziac innego crapa , ktory slabo chodzi i mowic , ze na tych nowich po prostu leci. Patrzac na wykresy WoWa pod katem GTX260 i 19x12 ja tam widze 55FPS. To na pewno plynnosc. Teraz , ponoc 5870 miala byc okolo 50% szybsza od 4890. Skad takie wysokie rozdzielczosci i te 80FPS?

 

 

Skad wiesz , ze nie czytalem wczesniej i celowo nie ironizuje? Nie lykam tego co PR pociska. Do dzis pamietam czym mial byc Phenom , co robilo AA w serii 2xxx. Chwala sie "jakims demem na jakichs ustawieniach" gry , ktorej nie ma i pisza o "demie" jak i "playable framerate" oraz o "dx11" , a ten jest dla kazdego z nas rozny , pozniej wyskakuja z WoWem...ktory nie wyglada , ale ponoc wymaga... E...

Edytowane przez Firekage

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

powiem wam szczerze że kusi mnie taka trójmonitorowa opcja :) z tego co czytałem co udało się dla Kap'a wydobyć z czeluści internetu, to trzy monitory będzie dało się podłączyć do 5850 a ten w najlepszej opcji będzie ogromnym skokiem wydajności :D nVidio drżyj!

 

EDIT:

z tego co widziałem to tam chyba w każdym zestawie używali albo podwójnego CF albo pełnego, a wow to, choć kiepawa i stara gra, to jednak zagrywają się w nią miliony ludziów, wiec nawet te 80 fps na wielu monitorach to jest jednak wyczyn.

Edytowane przez prznar1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No , poczekamy na AA i AF w ATI... Moze i nawet CCC przemodeluja :lol2: bo troche obciachowo , ze czesc ssob uzywa ATT.

 

wyjasnienie - celowo ironizuje by ostudzic zapaly...

Edytowane przez Firekage

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Zasilanie HD5870 Six to 6+8 pin. Zwykła wersja HD5870 może mieć 6+6 pin.

 

AMD's next-gen GPU powers Crysis on an iPhone

http://arstechnica.com/hardware/news/2009/...n-an-iphone.ars

AMD unveiled its next-gen GPU, and secretive networked gaming company OTOY used it to power a demo of Crysis running on an iPhone. Believe it or not, it really worked.

Dołączona grafika

 

Co prawda nie bezpośrednio, ale przez internet :>

 

AMD Unveils ATI Eyefinity Six Monitor Output

http://www.tomshardware.com/news/amd-ati-e...nitor,8637.html

 

Dołączona grafika

 

AMD Eyefinity 24 Display Tech Demo On Linux

http://www.phoronix.com/scan.php?page=news...m&px=NzUyNQ

Edytowane przez kap

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

http://www.hardforum.com/showthread.php?t=1450905

The NDA lifts on September 23, 2009. Most of the rumors you have read are true. I went to the USS Hornet in Alameda, CA (nice to see you again Kyle) the cards I saw (ATI 5870) should be out around the time windows 7 goes retail. The 5870 will be able to drive 3 30 inch monitors at the same time. I was one of 15 people to be dragged to the bowls of the ship and saw some really nice tech demos. ATI also is going open source with this product. Open CL and direct input. The physics were amazing as well. All Open CL originated. The Physics are going to be run on BOTH the GPU and CPU. Really nice scaling. I think nvidia is in trouble this round. The Price points are gonna be really competative as well.

Dołączona grafika

Edytowane przez kap

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ciekawe co na to nvidia i jej gt300... jak się spóźnią 6 miechów to raczej nie wygrają z Radeonami 5000....

Ja widzę w tym taki myk, że wydadzą karty 3 miechy później ale dzięki temu będzie mogła być trochę mocniejsza od produktu ATI. Nie przesadzą z wydajnością dzięki czemu koszty ich nie zabiją a strata trzech miesięcy zaboli trochę bo święta będą, ale mimo to pozostaną w dłuższej skali liderem wydajności na czym im najbardziej zależy.

Niedawno jeszcze było tak, że ati było liderem wydajności po premierze 3870x2 przez dwa dni. Teraz już dłużej. Widać że wsparcie technologiczne AMD jest skuteczne. Dziwi mnie tylko, że Intel wciąż nie potrafi robić wydajnych grafik i Larabee stoi w szczerym polu. 5870 pokonuje wcześniej deklarowana moc Larabee a premiera "super karty" Intela w 2010. Będą musieli wszystko zacząć od nowa i znów im się premiera opóźni.

Edytowane przez maxymili

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Niektórzy potwierdzają plotki o tym, że HD5870 ma dwa rdzenie w środku... tak jak quady intela są zlepkiem dwóch procesorów dwurdzeniowych.

HD5870 (Cypress XT) = XT Juniper X2

HD5850 (Cypress Pro) = Juniper Pro X2

Gołe karty

http://www.czechgamer.com/novinky/5038/ATI...z-chladice.html

Dołączona grafika

Dołączona grafika

Dołączona grafika

Edytowane przez kap

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

ale nie bierzesz pod uwagi fakt ze w momencie kiedy nvidia wypusci swoje nowe karty AMD bedzie juz na ktoryms etapie projektowania kolejnej generacji kart i jak narazie to AMD wyprzeda nvidie :) Watpie zeby nvidia wypuscila w tym roku gt300 w a przyszlym roku AMD moze wypuscic poprawiana i podkrecona rewizje np HD5890 i znowu byc o krok przed nvidia :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

ale nie bierzesz pod uwagi fakt ze w momencie kiedy nvidia wypusci swoje nowe karty AMD bedzie juz na ktoryms etapie projektowania kolejnej generacji kart i jak narazie to AMD wyprzeda nvidie :) Watpie zeby nvidia wypuscila w tym roku gt300 w a przyszlym roku AMD moze wypuscic poprawiana i podkrecona rewizje np HD5890 i znowu byc o krok przed nvidia :D

Nawet na pewno tak zrobi. Ale nVidia umie zrobić większe chipy i zawsze w tej samej technologii jest w stanie zrobić wydajniejszy pojedynczy układ. Tylko muszą wiedzieć przeciw czemu mają się wyszykować bo jak zrobią zbyt wydajny, to będzie tak drogi, że przegra ceną. Dlatego dla nich to opóźnienie jest też bronią.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Przygotuja za mocny=za drogi - przegrają

Przygotuja za slaby =kolejna rewizja AMD ich zje - przegrają

 

Wiec wcale nie wiem czy opóźnienie jest dobra bronią :) Poza tym przez te klika miesięcy na pewno stracą parę % rynku na rzecz AMD :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ja widzę w tym taki myk, że wydadzą karty 3 miechy później ale dzięki temu będzie mogła być trochę mocniejsza od produktu ATI. Nie przesadzą z wydajnością dzięki czemu koszty ich nie zabiją a strata trzech miesięcy zaboli trochę bo święta będą, ale mimo to pozostaną w dłuższej skali liderem wydajności na czym im najbardziej zależy.

Nawet na pewno tak zrobi. Ale nVidia umie zrobić większe chipy i zawsze w tej samej technologii jest w stanie zrobić wydajniejszy pojedynczy układ. Tylko muszą wiedzieć przeciw czemu mają się wyszykować bo jak zrobią zbyt wydajny, to będzie tak drogi, że przegra ceną. Dlatego dla nich to opóźnienie jest też bronią.

Nvidia robi wielkie i drogie chipy w produkcji, a opóźnienie 4 miechy to jest duże opóźnienie. Nie pamiętam takiej sytuacji żeby to firma, która później wydała karty była górą! Opóźnienie nigdy nie było bronią, a raczej staraniem dogonić się konkurencje i nigdy to nie wyszło. Przykłady: Jak Ati miało Radeony 9700/9800 to nvidia starała się dogonić ich serią FX i co z tego wyszło?? KLAPA!! Dalej...kiedy Ati spóźniało się z premierą HD2900 to po wypuszczeniu też miała być szybka. A co był?? przegrywała z 8800GTS 640 nie mówiąc już o GTX. Także nigdy nie było tak, by opóźnienie dawało jakąś przewagę firmie!! Widać, że droga którą wybrało AMD jest lepsza i małe a wydajne układy są tańsze i łatwiejsze w produkcji, a nie klocki takie jak GT200.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Lepiej żeby były poprawnie przygotowane. Poprzednie musiałem pominąć gdyż nawet po hotfixie ktory wazyl wiecej niz same stery byly bledy w wyswietlaniu grafiki.

 

Osobiscie nie interesuje mnie ile rdzeni jest w karcie graficznej, taki jest kierunke rozwoju i tyle. Jeśli ktoś myśli ze zrobienie dużego układu o dużej mocy i wysokim kosztem jest oplacalne to niech lepiej nie zakłada wlasnej firmy. Każda karta która jest zrobiona z wykorzystaniem nowego procesu/nowej technologii/architektury jest krokiem do przodu. No chyba ze wydajnosc sie nie zmienia.. wtedy to jest taki malutki korczek..

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nvidia robi wielkie i drogie chipy w produkcji, a opóźnienie 4 miechy to jest duże opóźnienie. Nie pamiętam takiej sytuacji żeby to firma, która później wydała karty była górą! Opóźnienie nigdy nie było bronią, a raczej staraniem dogonić się konkurencje i nigdy to nie wyszło. Przykłady

A BR i HD DVD?

A XBox i Play Station?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

idąc tym samym tokiem myślenia FDD < CD <DVD :D xbox i playstation wychodza raz na 5-6 lat wiec to zle porownanie, bo nowe chipy graficzne wychodza co kilka/kilkanascie miesiecy :)

Edytowane przez czullo

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

idąc tym samym tokiem myślenia FDD < CD <DVD :D xbox i playstation wychodza raz na 5-6 lat wiec to zle porownanie, bo nowe chipy graficzne wychodza co kilka/kilkanascie miesiecy :)

Nie o to mi chodziło.

Xbox 360 i playstation 3. Xbox wyszedł wcześniej ale ma gorsze parametry. W końcu to PS3 odbiło się pomimo opóźnienia.

HDDVD wyszło wcześniej, miało wsparcie microsoftu i toshiby a padło bo BR oferował w standardzie płyty większe o 20GB i ogólnie BR miał lepsza promocję także dzięki PS3 w którym BR był dodawany.

 

Ale uważam, że tym razem obrona nVidii będzie bardzo trudna a pocisk ze strony ATI@AMD tak mocny, że się może rynek na dobre wywrócić. Tylko piszę co mogą jeszcze próbować zrobić a nie że im się to uda. Oczywiście o ile testy potwierdzą zapowiedzi marketingowców. A tak jak Firekage wolę poczekać na dowody niż kierować się obietnicami.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A BR i HD DVD?

A XBox i Play Station?

Dziurawe przyklady. HD padl ponoc ze wzgledu na durna polityke w USA odnosnie cen odtwarzaczy zas Xbox mimo , ze byl wypuszczony pozniej i technologicznie miazdzyl kazda konsole tak przegral walke z PS2 zarowno w liczbie gier jak i ilosci sprzedanych konsol. PS2 sprzedala sie w ponad 100 mln. , gdy X1 ledwo cos w okolicy chyba 10.

 

 

Tak na marginesie, ktos pisal wyzej , ze nV goniac ati dala ciala z FX. Owszem, chwile pozniej wydali 6xxx i to ATI przez dlugo nie mialo o czym pomazyc nie mowiac juz o Ps3.0 , ktorego ATI nie mialo , a ktory pozniej okazal sie nagle przydatny.

 

NV stac na to i owo co widac po ilosci odgrzewancow. O czym mowie? O tym , ze to ATI musi gonic , a nie nV. Prawdopodobnie maja juz swoje , ale czekaja bo i po co maja sie spieszyc?

 

Nie o to mi chodziło.

Xbox 360 i playstation 3. Xbox wyszedł wcześniej ale ma gorsze parametry. W końcu to PS3 odbiło się pomimo opóźnienia.

Ostatnio czytalem pewien dokument o tym. PS3 odbilo sie? Watpie...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

NV stac na to i owo co widac po ilosci odgrzewancow. O czym mowie? O tym , ze to ATI musi gonic , a nie nV. Prawdopodobnie maja juz swoje , ale czekaja bo i po co maja sie spieszyc?

No to w końcu mają przechlapane bo wydaja dużo później czy osiągną jeszcze przewagę wydając później? Bo z uzasadnienia jakie napisałeś wynika to drugie a wnioski na to pierwsze wyciągasz.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A BR i HD DVD?

A XBox i Play Station?

rozmawiamy o kartach graficznych a nie o konsolach czy napędach...

 

Nie o to mi chodziło.

Xbox 360 i playstation 3. Xbox wyszedł wcześniej ale ma gorsze parametry. W końcu to PS3 odbiło się pomimo opóźnienia.

HDDVD wyszło wcześniej, miało wsparcie microsoftu i toshiby a padło bo BR oferował w standardzie płyty większe o 20GB i ogólnie BR miał lepsza promocję także dzięki PS3 w którym BR był dodawany.

Jakoś nie widzę żeby PS3 przegoniło Xboxa w ilości sprzedanych sztuk. A co do specyfikacji to poczytaj dobrze...Xbox ma mocniejszą grafikę i bardziej uniwersalną i łatwiej programowalnego proca. A i grafika na Xboxsie jest znacznie jest znacznie lepsza i było wiele testów porównawczych i zawsze xbox wygrywał. Na PS3 albo błędy w grafice albo mały framerate!

 

 

 

Tak na marginesie, ktos pisal wyzej , ze nV goniac ati dala ciala z FX. Owszem, chwile pozniej wydali 6xxx i to ATI przez dlugo nie mialo o czym pomazyc nie mowiac juz o Ps3.0 , ktorego ATI nie mialo , a ktory pozniej okazal sie nagle przydatny.

 

NV stac na to i owo co widac po ilosci odgrzewancow. O czym mowie? O tym , ze to ATI musi gonic , a nie nV. Prawdopodobnie maja juz swoje , ale czekaja bo i po co maja sie spieszyc?

Ta chwila później do serii 6xxx coś długo trwała...były FX5800 potem FX5900 i wciskanie kitu długo później seria 6xxx. Ati wtedy wydało X800XT PE, który był równie wydajny co 6800ULTRA. A jak naprawdę zaczęto korzystać z PS3.0 to już były X1900... Były takie czasy, że to Nv musiała gonić ATI i trwały dość długo...

Edytowane przez Michael86

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No to w końcu mają przechlapane bo wydaja dużo później czy osiągną jeszcze przewagę wydając później? Bo z uzasadnienia jakie napisałeś wynika to drugie a wnioski na to pierwsze wyciągasz.

Przypominj sobie z laski swojej 8800GT , a pozniej GTSa i co ATI mialo na karte tej klasy? Ta karta do dzis jest sprzedawana i odgrzewana bo ma wydajnosc. Ati zblizylo sie dopiero seria 48xx.

 

Ta chwila później do serii 6xxx coś długo trwała...były FX5800 potem FX5900 i wciskanie kitu długo później seria 6xxx. Ati wtedy wydało X800XT PE, który był równie wydajny co 6800ULTRA. A jak naprawdę zaczęto korzystać z PS3.0 to już były X1900... Były takie czasy, że to Nv musiała gonić ATI i trwały dość długo...

Trwala , za to na 6xxx odpalales Splintera bez problemow czego na 8xx ATI nie zrobiles ;) Czesc osob do dzis ma takie karty. Mowisz o 19xx ,a co z seria 7 od nV i tym czyms od ATI? Dopiero 1650XT dogonil 7600GS przy czym tez mial problem z DST. Edytowane przez Firekage

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Przypominj sobie z laski swojej 8800GT , a pozniej GTSa i co ATI mialo na karte tej klasy? Ta karta do dzis jest sprzedawana i odgrzewana bo ma wydajnosc. Ati zblizylo sie dopiero seria 48xx.

Zbliżyło się ale jakby tak wyprzedzająco. Porównajmy najmocniejszych przedstawicieli tych architektur:

GTS250 po OC i 4890, też po OC, albo nawet bez.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gość
Ten temat został zamknięty. Brak możliwości dodania odpowiedzi.



×
×
  • Dodaj nową pozycję...