Skocz do zawartości
MeoPL

Ati R600

Rekomendowane odpowiedzi

A ja tylko przypomne, ze ostateczny sad nad tym, ktora karta szybsza, bedzie mozna wydac dopiero po przetestowaniu obu kart w DX10, do tego zostaly stworzone. Jesli R600 okaze sie marginalnie szybszy od 8800GTX, to bedzie mozna to nazwac porazka, bo nVidia wyda 8900GTX i bedzie pozamiatane w kwestii wydajnosci.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Moim zdaniem nie wżne co będzie szybsze tylko aby cena była odpowiednio dobrana do wydajności , a wtedy sympatycy ATI kupią swojego R600 a miłosnicy NV swojego G80 .......przecież 10% nawet róznicy to praktycznie żadna różnica jak będzie odpowiednio dopasowana do ceny produktu.........I te boje mnie śmieszą poprostu....kupiłem G80 bo jak kompa zmieniałem to była najlepsza grafa i tyle.....jakby w tym okresie był R600 to jego bym kupił ...a jakby były oba i były podobne to wtedy bym się sugerował dopiero preferencjami co do firmy.......

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Zawsze najważniejszy jest stosunek CENA/WYDAJNOŚĆ

Tyle że teraz po kilku miesiącach spóźnienia ,wszyscy oczekujemy od R600

minimum 20% przewagi nad 8800GTX i zbliżonej moze minimalnie wyższej Ceny ! !

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Doswiadczenia poprzedniej generacja wskazuja ,ze jest ;) Zwlaszcza w sektorze low endowy i middle.

 

Jesli chodzi o LOW i MIDDLE to nikt o zdrowych zmyslach kierujacy sie tylko biznesem nie bedzie ich wyceniac wg wydajnosci...

Przeciez to maja byc karty do domciu, do biura a nie do najbardziej wypasnych gier... a przypadkowemu Smithowi czy Helmutowi wcisnie sie karte w duzych ilosciach niezaleznie od tego czy konkurent w tej czy tamtej grze jest 50% szybszy...

Wiec ATi byloby niezle poj.. tfu...wspanialomyslne gdyby myslac o graczach budzetowych z krajow trzeciego swiata ;) obnizylo cene tego co im sie i tak sprzedaje...

A R600 niestety bedzie kolejnym niewypalem... z lezka w oku zaczynam wspominac czasy R300 i R350...

i mimo mej calej sympatii do kanadyjczykow w budzie siedzi i cihutko pomrukuje 7900GT...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A R600 niestety bedzie kolejnym niewypalem... z lezka w oku zaczynam wspominac czasy R300 i R350...

To ja poproszę linka do kryształowej kuli która się posługujesz :mur: %#$(*&aja mnie takie posty, dzieki nim temat niedługo znów może zostać zamknięty.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To ja poproszę linka do kryształowej kuli która się posługujesz :mur: %#$(*&aja mnie takie posty, dzieki nim temat niedługo znów może zostać zamknięty.

Nie rozumiem czemu się tak wściekasz na opinie innych. To, że ktoś uważa, że karta ATi może się okazac niewypałem nie oznacza, że trzeba zamykac od razu cały temat. Przecież taką wypowiedzią nikogo się nie obraża, a tylko przedstawia własne zdanie na ten temat :wink:

Pogłoski na temat tej karty słychac już chyba od roku, i wciąż termin premiery jest przestawiany na kolejne późniejsze terminy. Coś jest nie tak, prawdopodobnie dostateczne odporwadzanie ciepła z tego monstrum (TDP 240W sic!), oraz koszt produkcji w 90/80nm. Pewnie zastanawiają się, nad zmianą procesu wykonania (do 65nm - by osiągnąc TDP na poziomie 180W), obniżając napięcie na rdzeniu, bo ramy GDDR4 i tak są już zasilanie niższym napięciem aniżeli GDDR3. Co do architektury to może się ona wydawac o połowę słabsza teoretycznie, jednak 4 drożne przesyłanie instrukcji SIMD w jednostkach MADD (64) pozwoli na znaczne przyspieszenie pracy.

Ja ze swojej strony nie czekam tak na R600 jak na RV630/610. Te karty budżetowe powinny miec przyzwoitą wydajnośc (na poziomie X1950GT/X7900GS) w DirectX9.0c, i pożądny kick ass w DirecX10; przy znośnej cenie dla przeciętnego użytkownika. Zobaczymy czas pokaże, także co na to nvidia ze swoimi 8600GTS/GT.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jedyne, co mnie "wscieka" to gloszenie opinii o charakterze pewnikow opierajac sie jedynie na pogloskach i swoim widzi-mi-sie. Rozumiem zniecierpliwienie, gdyz karta troche ;) sie spoznia ale nie jest to od razu powod by wieszac na niej psy a opierajac sie na plotkach oraz niepotwierdzonych przez oficjeli amd/ati informacjach juz teraz oceniac i porownywac jej wydajnosc, pobor pradu i tdp z g80. Przeciez caly czas mowimy o grafie ktorej jeszcze nie ma.

 

@deadhead

 

Dzięki za linka. Ciekawi mnie jedynie, co wyjdzie z tych - jak dla mnie sensownych - zapowiedzi wprowadzenia od razu calej rodziny kart obslugujacych dx10. Tzn. kiedy one sie ostatecznie pojawia :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To czy karta na bazie R600 będzie wystarczająco szybka w porównaniu do 8800GTX pozostaje zagadką

na pewno AMD/ATI zabije NVidię swoim demem technologicznym , tego możemy być pewni na 99%

kto widział najnowszy filmik z Rugbby w rolach głównych ,ten wie o co chodzi :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To czy karta na bazie R600 będzie wystarczająco szybka w porównaniu do 8800GTX pozostaje zagadką

na pewno AMD/ATI zabije NVidię swoim demem technologicznym , tego możemy być pewni na 99%

kto widział najnowszy filmik z Rugbby w rolach głównych ,ten wie o co chodzi :)

kto kupi ją dla takiego demka i do marków :lol:

 

 

@hammerhead http://www.pcgameshardware.de/?article_id=573129 to sobie poczytaj o poborze prądu z resztą pan z AMD fajnie powiedział po co AAx8 czy 16 skoro można dać większą rozdziałke... pewnie na każdym LCD i na pewno nie da to większego spadku wydajności.

 

Ale trzeba poczekać zobaczyć co te 512Bit potrafi.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To czy karta na bazie R600 będzie wystarczająco szybka w porównaniu do 8800GTX pozostaje zagadką

na pewno AMD/ATI zabije NVidię swoim demem technologicznym , tego możemy być pewni na 99%

kto widział najnowszy filmik z Rugbby w rolach głównych ,ten wie o co chodzi :)

No mnie osobiscie jakoś ten filmik [ demko ] nie powalił na kolana :D ....

 

dx10 i dx9c nei widze jakos roznicy. troche wiecej detali napackane. Ale i tak z powodu szybszej karty. ;]

A odpalałeś jakieś demo DX10 że piszesz że różnicy nie widzisz , bo ja widze i to ogromną..

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@Ruonim, co Ty urwałeś sie z choinki?! W DX10 nie chodzi szczególnie o to żeby były lepsze efekty (i tak one są) ale o to, że w porównaniu do DX9 będzie większa wydajność kart wspierających DX10 (szybciej to będzie wszystko chodzić). Tak jak ktoś tu wyżej napisał, przy DX10 takie 8800 rozwiną wtedy skrzydła.

 

PANOWIE JEST TO DEMO W FORMIE SMARKA CZY TYLKO WIDEO.

Edytowane przez LCC

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

kto kupi ją dla takiego demka i do marków :lol:

@hammerhead http://www.pcgameshardware.de/?article_id=573129 to sobie poczytaj o poborze prądu z resztą pan z AMD fajnie powiedział po co AAx8 czy 16 skoro można dać większą rozdziałke... pewnie na każdym LCD i na pewno nie da to większego spadku wydajności.

 

Ale trzeba poczekać zobaczyć co te 512Bit potrafi.

Wiesz,jak dla mnie narzekanie na długość karty i tdp jest trochę bez sensu biorąc pod uwage to iż może jedna czwarta zawiedzionych ostatecznie kupi tą kartę :)

Co do aa - juz cf oferuje x14 :) Spadek wydajności przy tym właśnie efekcie czy też stosowaniu większych rozdzielczości może być marginalny - patrz : szyna pamięci,jej takty oraz przewidywany bandwitch :D

 

Ocenianie tego dema moim zdaniem nie ma sensu ze względu na jakość i rozdziałkę udostępnionego materiału.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@Ruonim, co Ty urwałeś sie z choinki?! W DX10 nie chodzi szczególnie o to żeby były lepsze efekty (i tak one są) ale o to, że w porównaniu do DX9 będzie większa wydajność kart wspierających DX10 (szybciej to będzie wszystko chodzić). Tak jak ktoś tu wyżej napisał, przy DX10 takie 8800 rozwiną wtedy skrzydła.

 

PANOWIE JEST TO DEMO W FORMIE SMARKA CZY TYLKO WIDEO.

Video i to kiepskiej jakości ...dlatego mnie na kolana nie zwaliło .....

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@Ruonim, co Ty urwałeś sie z choinki?! W DX10 nie chodzi szczególnie o to żeby były lepsze efekty (i tak one są) ale o to, że w porównaniu do DX9 będzie większa wydajność kart wspierających DX10 (szybciej to będzie wszystko chodzić). Tak jak ktoś tu wyżej napisał, przy DX10 takie 8800 rozwiną wtedy skrzydła.

 

PANOWIE JEST TO DEMO W FORMIE SMARKA CZY TYLKO WIDEO.

 

A to ciekawe bo DX9 c i PS 3.0 też miało być lepsze i wydajniejsze ,a przy okazji troszkę ładniejsze. A co z tego wyszło to chyba nie jeden sam się przekonał.

 

ATi ma spóźnienie ale ja i tak wierzę że czymś jeszcze zaskoczy. Wątpię też by ceny ich układów wraz z premierą były wyższe od G80. Oni chyba wiedzą co robią. Co do video to trudno coś wywnioskować.Zbyt kiepska jakość.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Za rok będę kupował nowego kompa, i coś czuję że będzie to Amd Barcelona+Ati R600. :) Jeszcze nie jedni będą się ślinić na widok flagowej karty Ati. Pozdrawiam. :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Za rok będę kupował nowego kompa, i coś czuję że będzie to Amd Barcelona+Ati R600. :) Jeszcze nie jedni będą się ślinić na widok flagowej karty Ati. Pozdrawiam. :)

no niektórzy się ślinią od Listopada 2006 - już dużo śliny upłyneło. :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To chyba nie jest fake, widziałem to chlodzenie już jakiś czas temu. We wczesnej wersji R600 do odprowadzania ciepła potrzeba było aż takiego potworka w postaci ogromniastego radiatora, dodatkowo PCB dużo dłuższe. Oby tylko wersja finalna zmieściała się w budzie MIDI ATX :-P

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jezu przecież to szafa 3-drzwiowa ;) Na końcu jest uchwyt do jej przenoszenia bo chyba jest tak ciężka i grzeje się jak Słońce :) Mam nadzieję, że nie będzie brała tyle watów na jaką wygląda.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tego chyba jescze nie widzieliście, jak i również tego. :) Czy to fake? :?

 

O jaa ,ale to wielgachne. To jakiś kombajn a nie karta. Jeśli to ma tak się grzać to chyba można będzie zapomnieć o O/C No ale jeśli to faktycznie starsza wersja (bo widziałem podobne zdjęcie jakiś czas temu) to nie ma co się przejmować. Samo PCB nie jest dłuższe od 8800GTX ,ale to chłodzenie IMO przesadnie za duże.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tego chyba jescze nie widzieliście, jak i również tego. :) Czy to fake? :?

Było ;)

 

ile razy można powtarzać, że karta pokazana w powyższych linkach to wersja OEM :lol2: , a nie wersja dla "zwykłego" zjadacza chleba :D

 

R600 w 85% będzie wyglądać tak:

Dołączona grafika

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Było ;)

 

ile razy można powtarzać, że karta pokazana w powyższych linkach to wersja OEM :lol2: , a nie wersja dla "zwykłego" zjadacza chleba :D

 

R600 w 85% będzie wyglądać tak:

No to już zupełnie inne gabaryty. ;) Chłodzenie przykrywa jedynie PCB. Co prawda R600 raczej nie kupię ,ale nie życzyłbym nikomu by do karty dokupował nową budę.

Edytowane przez Devil

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No to już zupełnie inne gabaryty. ;) Chłodzenie przykrywa jedynie PCB. Co prawda R600 raczej nie kupię ,ale nie życzyłbym nikomu by do karty dokupował nową budę.

No ja miałem dylemat jak kupiłem G80GTXa brakowało mi 2mm aby do Tsunami zapakować.....ale mały mod i weszła - przyciołem na 1cm z jednej strony kosz na HDD :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gość
Ten temat został zamknięty. Brak możliwości dodania odpowiedzi.



×
×
  • Dodaj nową pozycję...