Skocz do zawartości
cavarr

Ati Radeon Hd 2900pro/xt/xtx

Rekomendowane odpowiedzi

no jezeli chodzi o shadery to zapewne tak tylko, ze karta graficzna to nie tylko shadery. a to ze 2900xt ma byc lepszy od 8800gts, to zadna nowina, bo taki byl target tej karty, co nie zmienia faktu, ze tak jak i produkt nv, tak i produkt ati ma swoje wady i o tym nalezy pisac.

 

ogolnie widze, ze temat zmierza w jednym kierunku - "2900xt/r600 jest cool, a jak nie jest to bedzie, i wara od tematu jak masz inne zdanie".

to mam pytanie, czy jak kupie sobie r600 to moge sobie dalej pisac o negatywach czy nadal tylko i wylacznie ahh i ohh? bo w sumie do tego to zmierza. co za swiat.

No ja w tym wątku pisze już ostatni raz , nie ma sensu bo i tak zakraczą.

R600 tak jak pisze Sulano - z załozenia powinno być szybsze od GTS i miejscami jest ale karta to nie wynik w marku czy 2-3 tytułach gier.

Czekam tylko z niecierpliwością na wątki osób , które posiadają już R600 ....myśle że niedługo się zaczną...osobiście dla mnie może być lepsza od GTXa mam to gdzieś.....zresztą na jesieni i tak przesiadka na G90.

Tylko denerwują mnie opinie osób , które na siłe twierdzą jaki to potór......

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

...jesli ktos jest posiadaczem grafy NV to ta krytyka wydaje sie byc mniej obiektywna

Nie zawsze :) Jestem posiadaczem nvidi a mimo to z przyjemnoscia kupie 2900xt do drugiego kompa... Ale niezaleznie od mojego zdania prawa rynku sa okrutne. Ati dala ciala z tak duzym opoznieniem, chiciazby CeBiT i zero oczekiwanych fajerwekow czy spodziewanych prezentacji. NVidia wypuscila swoje karty szybciej i poki co zdominowala rynek. Do znudzenia powtarzamy, ze to wczesne sterowniki, ze 2900XT nalezy porownywac z GTS 640MB a nie z GTX ale przeciez GTX to tez juz zadna nowosc a Ultra juz wchodzi na rynek... sorry - nie jestem zwolennikiem ktorejkolwiek z firm ale MUSIALEM kupic komputer 2 miechy temu i chcialem zainwestowac w optymalna karte (cena-wydajnosc) i ATI nie zaoferowalo mi NIC! Musialem wybierac miedzy nVidia a... nVidia!!! Prosze uprzejmie - po premierze nowych kart chetnie kupie ATI - teraz mam wybor ale na razie to sie glownie kloca uzytkownicy a miarodajne sa de facto wyniki sprzedazy a nie testy! Co oznacza lepsza / gorsza? Wyniki w benchmark? Jedynym celem dla wiekszosci uzytkownikow (domowych, nie grzebiacych codziennie po forach dyskusyjnych) jest kupienie karty (komputera z karta) takiej aby chodzily bezproblemowo najnowsze gry (pomijam specjalistyczne programy i inne takie). Karta spelnia to wymaganie - "jest git" - nie spelnia zawod i obarczanie wina platformy, sprzedawcy (ktory nastepnie nie poleci juz danego produktu w trosce o wlasny biznes)... rynek nie zna sentymentow - cos jest lepsze i tansze (a najlepiej oba naraz) i czar przywiazania do marki pryska! Jezeli ktos mi daje to samo (lub wiecej) za te same (lub mniejsze) pieniadze to co mnie obchodzi jakie ma logo na opakowaniu?!?!? To jest "wolnaamerykanka" i tyle! No moze jeszcze marketing... Myslicie, ze firmy kochaja nas tak bardzo, ze chca nam dac wymarzone produkty zebysmy byli maksymalnie zadowoleni?!?!?!? Kto jest lepszy/pierwszy/lepiej rozreklamowany kosi kase i tyle... oczywiscie super jak kosi kase!!! Chec zysku spowoduje, ze zainwestuje wiecej w rozwijanie technologii i wypusci cos lepszego/szybszego wczesniej! Ale znowu bez przegiec... jak nie bedzie konkurencji to wcisna nam kazdy chlam za wyssane z palca kwoty... Imperium Microsoftu... dlaczego pan B.G. trzepie kase... bo ma najlepszy OS pod sloncem????? Nie ma realnej (komercyjnej) konkurencji a majac takie dochody moze rozwijac produkt praktycznie w nieograniczony sposob (ile bylo pozwow o praktyki monopolistyczne?!?!?!)... wiec dajmy sobie spokoj z obrazaniem siebie nawzajem lub rozdzieraniem szat "w obronie"... czas wszystko zweryfikuje a nie nasze utarczki slowne i "wiarygodne" testy...

Njwazniejsze, ze w koncu mamy WYBOR a polemika oznacza jedynie to, ze zdania sa podzielone czyli "nie wszystko stracone dla Kowalskiego"!!! :-P

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gość Carl Orff

chetnie kupie ta grafe, jesli bedzie warta tej ceny i w osiagach zblizona do gtx. nigdy nie lubilem nvidii, za te intra w grach ... nnnvidia! :P

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Sulaco --> 'wczoraj' karta to nie były tylko shadery, 'jutro' będzie zwłaszcza shaderami :) ATI wypuściło kartę bardziej perspektywiczną, mniej do 'starych' tytułów. Przynajmniej w zamiarze, jak będzie się okaże.

I naprawdę należy brać pod uwagę, żę takiej architekturze sterowniki odgrywają znacznie większą rolę niż dotychczas. Nie zdziwię się, jak nowe stery przyniosą nawet 20-30% większą wydajność. Co nie znaczy, że tak będzie...

 

Natomiast jak dla mnie tak karta ma absurdalną prądożerność. Chłodzenie lepsze niedługo się pojawi, pewnie i rewelacyjne accelero też się na tą platformę pojawi. Ale tak skomplikowany rdzeń sensowny będzie dopiero w technologii <=65nm.

 

Strategicznie/marketingowo ati zaspało. Albo wcale nie powinni tego wydawać i od razu r650, albo nie guzdrać się tak i wypuścić ją kilka miechów temu.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Warto czekać na R700 bo ma podobno być w 55nm, ale to już inna bajka. Lepiej kupić 2900XT.

a co z tego, że r700 będzie w 55nm?? normalna kolej rzeczy. twoim tokiem rozumowania lepiej poczekać na r1000 będzie w 15nm wymiarze :lol:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gość Carl Orff

bez przesady. nie popadajmy w paranoje :P jezeli r650 to kwestia paru miechow to spoko, ale jezeli roku to troche nie bardzo ... ilez mozna siedzieć na 6200 :|

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

bez przesady. nie popadajmy w paranoje :P jezeli r650 to kwestia paru miechow to spoko, ale jezeli roku to troche nie bardzo ... ilez mozna siedzieć na 6200 :|

Mój tata sobie kupił ostatnio ATI 9100, wyjął wentylatorek bo mu hałasował, i mowi że jest cicho i fajnie, i nawet się jeszcze karta nie spaliła, chodząc na kawałku blaszki, co była pod wentylatorem, jako chłodzeniu :P. On mówi, że sobie kupi coś od AMD żeby mieć HD ready komputer :P ale mu się narazie nie spieszy :D Więc wiesz, zależy, dla jedego bez grania w gry można siedzieć kilka lat, a drugi musi mieć minimum karte ze średniego pułapu. A AMD w ogóle coś przebąkuje o R650? Bo mowili, że zmniejszą R600 do niższego wymiaru, ale to chyba dalej będzie R600, więc co nagle tu tak głośno o R650?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

a co z tego, że r700 będzie w 55nm?? normalna kolej rzeczy. twoim tokiem rozumowania lepiej poczekać na r1000 będzie w 15nm wymiarze :lol:

Mój to rozumowania opierał się na tym, że R650 to nie będzie nic innego jak R600 w 65nm. Został tutaj kilka razy przytaczany argument prądożerności. Jak dla kogoś on jest ważny to można czekać na 65nm. A zdanie o R700 jak już napisałem to "inna bajka".

 

R650 to (prognozy) Q3

Edytowane przez Xanagaz

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ładniy wynik. Zastanawia mnie jednak, dlaczego ludzie przeprowadzają testy tych kart z wyłączonym antyaliasingiem. Przecież nikt nie zamiarza grać na R600 czy tez G80 z AA-OFF.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ładniy wynik. Zastanawia mnie jednak, dlaczego ludzie przeprowadzają testy tych kart z wyłączonym antyaliasingiem. Przecież nikt nie zamiarza grać na R600 czy tez G80 z AA-OFF.

Tak ściślej, to w niektórych grach nie działa AA, jak w tym Cellfactor gdy jest HDR on.

 

A tak to wynik bdb, tylko co on daje właściwie, gra ktoś w to?

Edytowane przez WDK

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ładniy wynik. Zastanawia mnie jednak, dlaczego ludzie przeprowadzają testy tych kart z wyłączonym antyaliasingiem. Przecież nikt nie zamiarza grać na R600 czy tez G80 z AA-OFF.

Kuknij w tekst, a nie tylko na wykresy ;)

 

Tak ściślej, to w niektórych grach nie działa AA, jak w tym Cellfactor gdy jest HDR on.

 

A tak to wynik bdb, tylko co on daje właściwie, gra ktoś w to?

To jest pokazanie tego co R600 potrafi. A bardziej szczegółowo - jego architektura.

Edytowane przez DaRoN

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

no i dzieje się coraz lepiej, jeszcze w wątku o r600 pisałem, że trzeba czekać na sterowniki no i proszę powoli sprawa zaczyna się wyjaśniać.

 

A osoby posiadające g80 dalej uparcie wjeżdzają w prądożerność, problemy z AA/AF i jakość generowanej grafiki a prawda tak że G80 nie wniosła dużych innowacji, a spóźnione r600 wchodzi z bardzo odmienioną architektórą, która wg mnie będzie przyszłością. A więc refleksja taka AMD/ATi już to ma chociaż może nie dopieszczone do końca ale jest i już tylko poprawiać i rozwijać dalej , a NV siedzi w krzakach i myśli co tu nie wymyślić :)

 

Zaraz będzie, że jestem fanem ATI no prawda taka, że miałem same karty od czerwonych poprostu tak się składało, nie znaczy to jednak że nie pracowałem na NV. Problem taki, że zawsze to było praktycznie low-end a tam nie ma się czegoś wielkiego spodziewać ;) Nie mam nic do NV ale pomyślcie co było po pierwszych testach HD2900XT, kto pierwszy krzyczał że to dno, jak widzicie karta jednak jest na poziomie i te 225W to też trochę było przesadzone bo ludzie pokazują 160W. Dla was też niedawno wychodziły sterowniki co trochę podciągały wydajność ;) a minęło ponad pół roku.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Sam mam Gtx-a, ale uwazam ze zarownio GTX jak i HD2900XT niestety sa za słabe na DX 10. Czekałem na HD2900XTX jako super wydajna karte ale niestety sie nie doczekałem. Pozostaje czekac do jesieni moze cos wyjdzie ciekawego niezaleznie z jakiej firmy.

 

PS. Interesuja mnie tylko full detale w duzej rozdzielczosci. Ale niestety demo Lost Planet obnaza "kiepskosc" aktualnych kart grafiki.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dokladnie, poczekajmy z tymi lamentami do czasu jakiegos "konkretnego" tytulu na DX10. Z reszta moze jeszcze do premiery Lost Planet troche podrasuja.

Było mówione, że LP przyspieszy w wersji finalnej, muszą optymalizacje zrobić :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To i może ja się wypowiem, bo mnie strasznie ta karta zainteresowała. Już pomijając, że na moje oko nawiąże walkę z 8800gtx, pomijając ilość watów którą zeżre. Mnie w tym produkcie powala cena. Pierwszy raz widzę (od dawna) topową kartę z nowej serii poniżej 2000zł. I to grubo poniżej, bo nawet za niecałe 1400zł z przesyłką. Biorąc pod uwagę, że jest to cena niedługo po premierze, z wielkim optymizmem patrzę na przyszłość tej karty. Teraz właściwie czekać konkretnych sterowników i jeżeli będzie tak jak w moim odczuciu się zanosi, że będzie, wymienię mojego 7900GS na 2900XT.

 

BTW. Jaki ta karta ma rozstaw otworów?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No troszkę się zdołowałem widząc ten test... nie za bardzo się to poprawiło w stosunku do serii X19xx szczególnie w Ghost Recon... rok temu miałem porównanie przesiadając się z 6800GT na X1900GT. Na ATI w Ghost Recon miałem jakieś dziwne białe kropeczki na łączeniach tekstur, niewiele tego było nie przeszkadzało za bardzo ale psuło nieco wrażenie... sprawdzałem to na radeonie 9800Pro i obraz wyglądał tak samo (pomijam wydajność). Porównałem to też do GF 7600GT i tam obraz jest OK. Cienie także nie były rewelacyjne. Zapewne gdyby AMD wysiliło się troszkę aby jak nVidia pchać swoje logo do gier czyli nieco bardziej współpracować z ich twórcami było by zapewne OK i taki mający duży potencjał 2900XT wykorzystałby swoja moc, a tak mamy dziwne rozrzuty raz prawie jak 8800GTX, a raz wolniej niż 8800 GTS 640MB.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Napiszcie mi dlaczego ati ma cały czas problemy z cieniami. Ciągną się te problemy latami. W czym tkwi problem i dlaczego nic z tym nie zrobią?

bo ATI ma swoją metode mapowania cieni i ją wspiera, ale użycie DST jest łatwiejsze dlatego mało kto zabiera się za metode ATI i tak lenistwo i brak umiejętności promuje DST Edytowane przez Zawadaki

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To i może ja się wypowiem, bo mnie strasznie ta karta zainteresowała. Już pomijając, że na moje oko nawiąże walkę z 8800gtx, pomijając ilość watów którą zeżre. Mnie w tym produkcie powala cena. Pierwszy raz widzę (od dawna) topową kartę z nowej serii poniżej 2000zł. I to grubo poniżej, bo nawet za niecałe 1400zł z przesyłką. Biorąc pod uwagę, że jest to cena niedługo po premierze, z wielkim optymizmem patrzę na przyszłość tej karty. Teraz właściwie czekać konkretnych sterowników i jeżeli będzie tak jak w moim odczuciu się zanosi, że będzie, wymienię mojego 7900GS na 2900XT.

Kurs walut. Gdy wychodziły taki karty jak 6800,7800 i porównywalne high-end'owe radki dolar stał ponad 4 zł teraz stoi 2,8 - cena "premierowa" w usa jest podobna tylko troche u nas się zmieniło - no i trudno żeby wyskoczyli z r600 z ceną ponad 2k bo wtedy to dopiero był by śmiech :-)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

bo ATI ma swoją metode mapowania cieni i ją wspiera, ale użycie DST jest łatwiejsze dlatego mało kto zabiera się za metode ATI i tak lenistwo i brak umiejętności promuje DST

Tłumaczyć to można w obie strony , ale to akurat mało istotne.

moim zdaniem użytkownika końcowego mało obchodzi jak to jest robione , a obie firmy i tak mają w [gluteus maximus] odbiorce końcowego liczą się tylko zyski....

Mnie osobiście jak i 90% użytkowników interesuje jedno - kupując kartę za 1300-2000 pln oczekuję przynajmniej:

odpowiedniej jakosci grafiki

płynności działania gry przynajmniej w 1280x1024

AA przynajmniej 4x i 16xAF .

I tylko to jest dla mnie istotne a nie jakiej firmy jest karta

Nigdy jak mam zamiar kupić nie czekam a moze będzie lepiej albo wyjdzie coś nowego.

Chcem kupić kartę dziś - to wybieram to co dziś mnie zadowala i tyle.

Obie firmy mają wzloty i upadki , wpadki ze sterami itd i obie wypuszczą jeszcze dużo nowych , lepszych lub gorszych kart , i będzie jeszcze wiele dyskusji co lepsze bo takie są reguły tego świata......

...dlatego nietórzy kupią R600 i będą zadowoleni a inni nie i tak samo inni kupią G80 i część z nich też będzie nie zadowolona z wyboru - proste , każdy ma inne gusta i oczekiwania....

osobiście uważam te cienie , AA i AF jako porażkę ATI , przecierz kartę wypuszcza się do gier , które obecnie są albo wyjdą w przeciągu roku a nie do gier , które wyjdą za 2-3 lata albo wcale....i głupotą jest gadanie że ATI ma rację ma super karty a tylko wszyscy źle piszą gry...........I wcale nie twierdzę że R600 to gniot ...poprostu gry są jakie są i basta i to dla nich ma być karta a nie odwrotnie.....może być tak że wyjdą nowe tytuły w , których R600 powali na łopatki G80 ...... ale my wyboru dokonujemy teraz

Edytowane przez konio68

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Dodaj odpowiedź do tematu...

×   Wklejono zawartość z formatowaniem.   Przywróć formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

Ładowanie



×
×
  • Dodaj nową pozycję...