Skocz do zawartości
MeoPL

Ati R600

Rekomendowane odpowiedzi

A mnie zastanawia jedna sprawa. Skoro R600 ciągnie dwa razy tyle Watów co G80, a G80 w idle ma 60C (standardowe chłodzenie), to ile stopni w spoczynku będzie miało nowe dziecko AMD? 80, 85?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Z nieoficjalnych informacji jakie można przeczytać w Internecie wiemy już jaką specyfikację będzie miał topowy model nowych Radeonów HD 2000, czyli wersja HD 2900 XT.

 

Procesor znany do niedawna pod kodową nazwą R600 wykonany będzie w technologii 80 nm i zostanie wyposażony w 320 superskalarnych zunifikowanych jednostek obliczeniowych. Interfejs pamięci ma być 512-bitowy wyposażony w 8-kanałwy kontroler. Z procesorem zostanie zintegrowany mechanizm obsługi CrossFire bez konieczności korzystanie z zewnętrznych łączników. Układ w dużym stopniu bazuej na procesorze zastosowanym w konsoli Xbox 360, z tym, że w stosunku do niego ATI dokonało szeregu usprawnień (m.in. wbudowało specjalny procesor wideo UVD (Universal Video Decoder) prawie całkowicie odciążający CPU od zadań związanych z dekodowaniem filmów SD i HD).

 

W procesorze znajdziemy także sprzętowo realizowaną Tesselację, czyli mechanizm dokonujący na drodze sprzętowej podziału trójkątów na mniejsze elementy, a przez to zwiększający szczegółowość obrazu bez niekorzystnego wpływu na wydajność generowania obiektów 3D.

 

W karcie zastosowany ma być nowy tryb wygładzania, tzw. Custom Filter AA (CFAA), który maksymalnie można ustawić na 24x. Także tryby 8x MSAA zostały całkowicie zmodyfikowane, teraz maja oferować o wiele lepszą jakość obrazu. Karty mają obsługiwać standard HDMI przesyłając jednocześnie obraz i dźwięk (w procesor graficzny wbudowano układ audio). Niestety implementacja HDMI to wersja 1.2, w związku z czym oferująca bardzo ograniczone możliwości (m.in. obsługa jedynie dźwięku 5.1 standardowych trybów DD i DTS).

 

Częstotliwość pracy rdzenia to 742 MHz, natomiast 512 MB pamięci GDDR3 - 1,65 GHz. W komplecie z kartą każdy ma otrzymać 3 gry firmy Valve. M.in. Half Life 2: Episode Two.

 

Zużycie energii przez kartę oscyluje wokół 200 W.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wyższy zegar, więcej jednostek a wydajność zbliżona więc więcej zmarnowanych watów, zaczyna mi sie sytuacja ATI kojarzyć z Intelem i netburst dużo pustych megaherców ogrzewających pokój, żeby mnie nie zrozumieć źle nvidia wcale nie jest lepsza choć wydaje się chociaż "odrobinę" optymalizować układy, kibicuje R600 ze względu na konkurencje dobrze wyglądającą konstrukcje "na papierze" ale przyznam szczerze że zamisat 80% szybszych kart co roku żrących 100% więcej prądu marzy mi sie karta szybsza o 20% konsumująca 20% mniej prądu najlepiej bez zewnętrznego zasilania i z jednoslotowych chłodzeniem... no ale chyba moje marzenia zostały na poziomie wesołego dzieciństwa z Ti4400

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

no to chyba nie nowosc ze karty by ATI pobieraja wiecej watow, r580 vs geforce7 : chyba nie trzeba komentowac...dla mnie ATI jest niemalze na takiej samej pozycji jak ich wlasciciel - AMD. Moga czyscic buciczki intelowi/nvidzie. To ze R600 wychodzi pol roku po odpowiedniku konkurencji(!!!) , ma zblizona wydajnosc (troche lepsza) + troche bajerow (integra dzwiekowki i itp) ale wiecej pobiera pradu to WIELKI ŻAL. Do tego korzysta z drogiej szyny zewnetrznej pamieci 512bit wiec naparwde nie wiem jak oni moga konkurowac cenowa z nviddia ktora moze bez klopotu obnizyc znaczaco ceny swoich kart.. ale ja takze goraco kibicuje ATI bo jak ta firma wyapdnie z rynku (pewnie razem z AMD) to chyba koniec swiata bedzie dla konsumentow...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A mnie zastanawia jedna sprawa. Skoro R600 ciągnie dwa razy tyle Watów co G80, a G80 w idle ma 60C (standardowe chłodzenie), to ile stopni w spoczynku będzie miało nowe dziecko AMD? 80, 85?

Nie koniecznie więcej stopni....wentyl G80 ma 1300 prm to jest jego 60% i chodzi w takim tempie do ok 80C.

czyli skoro np R600 wyciągnie ok 60% prądu wiecej to wentyl w idle aby utrzymać tempy podobne jak w G80 [ zakładając że układ chłodzenie jest porónywalny - podobne śmigło itd) powinien krecić na ok 2000 prm a przy obciązeniu okolo 3200 .....nawet te 2000 już będzie słyszalne ostro , w g80 przy 1300 jest cichutko.......i jeszcze jedno w grach karta u mnie ma max 79 - 82 C przy zwykłych taktach .....czyli podczas giercowania jest cicha............mowa o GTX

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Kolejna wiadomosc. Tym razem o HD 2900XTX.

 

http://www.tcmagazine.com/comments.php?sho...734&catid=2

8800 Ultra zapowiedź przyszłym miesiącu :D?

 

Wracając do AMD to 1024MB 512Bit tak drogie pamięci ale pewnie tak szybko na wartości nie stracą. Ciekawe tylko w jakich rozdzielczościach będzie można poczuć dużą różnicę między 88GTX a 29XTX. Pewnie i tak ostateczny pojedynek 88 i 29 zobaczymy w grach DX10 głównie w Crysisie ( tak jak to było z FC) a może do tego czasu panowie z AMD coś zrobią z poborem mocy.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

o ile te wyniki są lekko większe od GTS to zauważcie, że w przypadku nowych kart ATI można mówić o niedopracowanych sterownikach :) (inna sprawa ma się co do nowych 8600)

tu bym się nie zgodził , oba projekty wystartowały m/w w tym samym czasie......i obie firmy miały tyle samo czasu na dopracowanie sterów........a ze premiera r600 jest o pół roku opużniona względem NV to inna bajka....cudów bym nie oczekiwał w DX9 obie karty będą podobnie chodziły a co są warte w DX10 okaże sie latem...bo pierwszy tytuł na DX10 będzie miał premiere jak opużnień nie będzie.R600 na pewno nie będzie odstawał od G80 ale łba mu nie ukręci raczej...ale i tak jak ta podona wydajność moze te 5% wiecej będzie obkupiona 200W i głośnym wentylem to porażka.

na szczęscie premiera już blisko i wszystkie wątpliwosci szybko się rozwieja , trzymam kciuki za ATI może GTX potanieje i SLI zapodam :D .

Edytowane przez konio68

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

tu bym się nie zgodził , oba projekty wystartowały m/w w tym samym czasie......i obie firmy miały tyle samo czasu na dopracowanie sterów........a ze premiera r600 jest o pół roku opużniona względem NV to inna bajka....cudów bym nie oczekiwał w DX9 obie karty będą podobnie chodziły a co są warte w DX10 okaże sie latem...bo pierwszy tytuł na DX10 będzie miał premiere jak opużnień nie będzie.R600 na pewno nie będzie odstawał od G80 ale łba mu nie ukręci raczej...ale i tak jak ta podona wydajność moze te 5% wiecej będzie obkupiona 200W i głośnym wentylem to porażka.

na szczęscie premiera już blisko i wszystkie wątpliwosci szybko się rozwieja , trzymam kciuki za ATI może GTX potanieje i SLI zapodam :D

...po jednym tytule będziesz sprawdzał wydajność w dx10 ??

 

ps

jak będą się sprawować obie karty(g80, r600) w dx10 pokażą nam dopiero nadchodzące lata :]

Edytowane przez cavarr

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

...po jednym tytule będziesz sprawdzał wydajność w dx10 ??

 

ps

jak będą się sprawować obie karty(g80, r600) w dx10 pokażą nam dopiero nadchodzące lata :]

Zgadzam się w 100%. Nie można wywnioskować, która karta jest lepsza po jednym tytule. Tytułów musi być kilka, a na to będziemy musieli poczekać przynajmniej do grudnia. Pojawią się: Crysis, Company of Heroes, Conan, jakaś przygodówko-strzelanka, no i World in Conflict chyba na szarym końcu. Wtedy będziemy porównywali owe karty. Ale pewnie do tego czasu wyjdą trzy razy poprawione 8800 i 2900 lub też G90 i R700 kto wie...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

...po jednym tytule będziesz sprawdzał wydajność w dx10 ??

 

ps

jak będą się sprawować obie karty(g80, r600) w dx10 pokażą nam dopiero nadchodzące lata :]

trochę żle się wyraziłem , po jednym tytule okaże się czy coś wogule są warte a nie porównywać ich wydajnośc.zresztą może jakiś mark wyjdzie........pod DX10...i co warty jest sam DX10 .... Edytowane przez konio68

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Pragnę zauważyć że Crisis był produkowany przy duzym udziale nVidia, która na tym tytule doskonaliła swoje 8800 GTX/S, więc należy się spodziewąć daleko idącej optymalizacji. Jeżeli mimo wszystko AMD okaze się szybsze, będzie to dobry znak.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Pragnę zauważyć że Crisis był produkowany przy duzym udziale nVidia, która na tym tytule doskonaliła swoje 8800 GTX/S, więc należy się spodziewąć daleko idącej optymalizacji. Jeżeli mimo wszystko AMD okaze się szybsze, będzie to dobry znak.

:lol2:

 

Ach ten cholerny spisek i znowu nV opłaciła wszystkich twórców gier żeby to zoptymalizowali swoje produkcje :lol2:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Pragnę zauważyć że Crisis był produkowany przy duzym udziale nVidia, która na tym tytule doskonaliła swoje 8800 GTX/S, więc należy się spodziewąć daleko idącej optymalizacji. Jeżeli mimo wszystko AMD okaze się szybsze, będzie to dobry znak.

Pragne zauwazyc, ze tworzenie gry na dx10, wymaga posiadania karty zgodnej z dx10. To ile modeli kart zgdonych z dx10 ATi oferuje?

 

Anyhoo - IMVHO glownym powodem opoznien R600 jest fuzja z AMD i w efekcie burdel na poziomie zarzadzania.

 

No i notka prywatna - BARDZO sie ciesze, ze mid-range Nvidii jest a Ati zapowida sie jako chor kastratow - dzieki temu karty high-endowe beda dluzej wlasnie high-endem :) zakup XTXa czy GTXa wydaje sie zatem bardzo dobrym wyborem :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

r600, produkt ktory wychodzi ponad pol roku po konkurencji jest kiepawy?

owszem: http://www.dailytech.com/ATI+Radeon+HD+290...article7052.htm

nie dziwie sie ze przesuneli premiere x2900xtx na 3 kwartal bo kazalo sie ze szybsze albo tak samo szybkie jest wolniejszy 2800xt...cos nie tak jest z karta xtx i chca to poprawic

http://www.xtremesystems.org/forums/showthread.php?t=141919 (nie wiem czy nadal aktualne z tym Q3)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jak te testy http://www.dailytech.com/ATI+Radeon+HD+290...article7052.htm

są prawdziwe to AMD/ATI ma duży problem....topowa karta co pobiera tyle prądu co telewizor 40" jest wolniejsza to kaplica.....

spoko. przeciez r600 jest zaprojektowny do dx10 i tam role sie odwroca. g80 to FX jezeli chodzi o dx10 ;)

btw: ciekawe co teraz robia ci co posprzedawali 8800gtx, aby zakupic r600 :unsure:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ci co posprzedawali GTX-y (moi dwaj kumple) czekaja na HD2900XTX i maja nadzieje ze kupia je zaraz po 14 maja. Tylko ciekawe co zrobia gdy XTX wyjdzie w sierpniu, wrześniu - 3Q.

Edytowane przez Lysyn

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

jak te testy są prawdziwe to "żal" dla ATI/AMD, ale pewnie to fake

For example:

 

Company of heroes 1280*1024:

1950 XTX 99 (tweaktown) E6600

2900 XTX 97 (dailytech) QX6800

 

Company of heroes 1600*1200:

1950 XTX 70 (tweaktown) E6600

2900 XTX 73 (dailytech) QX6800

 

http://www.tweaktown.com/articles/1084/6/page_6_be...

 

FEAR 1280*1024:

1950 XTX 80 (tomshardware) No softshadow 4AA 8AF , X6800

2900 XTX 84 (dailytech) with softshadow 4AA 16AF , QX6800

 

FEAR 1600*1200:

1950 XTX 57 (tomshardware) No softshadow 4AA 8AF , X6800

2900 XTX 58 (dailytech) with softshadow 4AA 16AF , QX6800

 

http://www.tomshardware.com/2007/02/12/the_amd_squ...

aż tak sie nie da spartolić karty ;) Edytowane przez cavarr

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

aha. testy nieprawdziwe, ale ze xtx bedzie dostepny zaraz po 14maja, to juz prawda. ok. twardzielem trzeba byc do samego konca ;)

czegoś nie rozumiem :wink: , gdzie Lysyn napisał, że xtx ma być dostępny po 14 maja ??

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Najbardziej mnie śmieszy jedno.

Jak wczoraj ten serwis podał testy 2900xt i 8800GTS to były prawdziwe :)

a dzis jak 2900XTX i 8800GTX to już pewnie fake...:)

oj Panowie.....smutne....

Ja osobiście czekam na testy do premiery karty...........ale jak sie okaże to prawdą to AMD leży i kwiczy....nie dość że intel dał popalic z procami i ich cenami to do tego NV....z kartami....osobiście mam nadzieję że tak nie będzie bo ucierpi nikt inny jak my.dlatego proponuje nie klucić się co będzie lepsze tylko trzymac kciuki aby R600 było tak dobre przynajmniej jak G80.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

hehe sulaco i konio to chyba najwieksi fani nv na forum :D az czasem zabawnie sie czyta :D anyway ja tez bardziej lubie nvidie, miedzy innymi wlasnie za optymalizacje/wspolprace z tworcami gier (nazwij to jak chcesz) :) niektorzy doszukuja sie tu oszustw itp, a imho to bardzo dobre posuniecie ze strony NV. teraz jak patrze co dzieje sie z r600 to ciesze sie, ze nie czekalem, bo bym chyba sie pochlastal zebym mial tyle czekac (nastawialem sie na premiere @ cebit).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

hehe sulaco i konio to chyba najwieksi fani nv na forum :D

ee tam zaraz fani. realisci ;)

szczerze jednak powiem, ze mam cicha nadzieje, ze te wyniki to fake, chociaz

http://www.fudzilla.com/index.php?option=c...03&Itemid=1

sugeruje, ze wersja 2900XT ma rywalizowac z 8800GTS. wersja XTX nie bedzie znaczaco szybsza od wersji XT - cos jak 1900xtx - 1950xtx, tak wiec wyglada na to, ze potweirdzaja sie moje przypuszczenie (luty?), ze ati odpuszcza sobie highend.

nadal jednak jestem bardzo ciekaw nowych upiekszaczy :rolleyes: bo ukladu dzwiekowego srednio :lol:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

w sumie dobrze, bo zaraz by mne kusilo by zamienic na ati, a w takiej sytuacji nie widze sensu :)

 

widze kosmiczna analogie amd/ati do intel/nv. intel i nv praktycznie zawsze krolowaly, lecz obie firmy mialy ostre wpadki (p4 i seria fx), przez co przez wielu byly juz skreslane, jednak wnioski wyciagnely i teraz miazdza. amd/ati mialy swoje dni krolowania, i wyglada na to, ze po prostu obie firmy spoczely na laurach, olaly konkurencje. teraz widac tego skutki.

 

lepiej byc solidnym przez cala kariere i miec jakas wpadke by moc sie po niej podniesc, niz wykorzystac wpadke konkurenta do wyrobienia sobie opinii i spoczac na laurach.

Edytowane przez -mess-

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gość
Ten temat został zamknięty. Brak możliwości dodania odpowiedzi.



×
×
  • Dodaj nową pozycję...