Skocz do zawartości
MeoPL

Ati R600

Rekomendowane odpowiedzi

Ale X1900XT nie jest wydajniejsze od GF7900GTX a w testach SLI vs CF wypada praktycznie identycznie.

Jeśli nie jest wydajniejsze to na pewno nie jest gorsze.

Odpowiem tak.... Nie miałem doświadczenia ani a SLI ani CF ale opieram się na opiniach użytkowników a te jednoznacznie stwierdzają że SLI jest jednak lepsze.... Tzn. oczywiście pewnie są przypadki że CF jest conajmniej tak samo wydajne jak i SLI ale w większej ilości sytuacji to jednak SLI jest wydajniejsze no i przede wszystkim bardziej dopracowane (choćby z racji tego ze jest jednak dłużej na rynku)....

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Panowie! Identyczne spekulacje były przed premierą R5xx! Ba. Nawet wywróżono bankructwo ATI. Co się okazało? Że nie było tak źle. ;) Obsuwę zaczęli zaliczać od momentu kooperacji z M$ nad produkcją Xenosa. Od tamtej pory ATI jest ciągle w tyle i jakoś nadgonić nie może. ;) Puki nie wyjdzie pierwsza gra w DX10 ATI wielkich strat nie poniesie. R600 właśnie tam musi walczyć bo przecież do tego te karty są projektowane. I boom na karty HighEnd czy to ATI czy nVidia zacznie się prawdopodobnie wraz z wejściem Crysisa. To on napędzi sprzedaż i sądzę, że panowie z ATI zdają sobie z tego doskonale sprawę. Puki nie ma na czym promować najnowszego projektu to dłubią coś przy nim i poprawiają co się da. Może myślą nad obniżeniem poboru prądu/produkcją w 65nm? Nie będę wróżył z fusów ale na pewno nie siedzą przy herbatnikach, kawce i grają w karty. ;) A o upadku czy problemach finansowych bym zapomniał. Przypominam, że ATI-AMD ma swoją dojną krowę czyli M$ i X360. ;)

 

PS. Odniosę się jeszcze do jednej sprawy czyli Catalystów. Dla mnie te stery są bardzo dobre. Mam radki praktycznie od 8500 poprzez 9100, 9500, 9800 i teraz X1800 i powiem, że tylko raz miałem problem z jakąś gra ale było to na Radeonie 8500. Od tamtej pory wszystko działa idealnie. Tak samo jest u mojego brata, który ma R300 i chwali sobie tą kartę jak i sterowniki z którymi nigdy problemów nie miał. Gdyby nie to, że mam manię wymieniania sterów co miesiąc-dwa to on by pewnie tego nie robił. :) Więc nie wiem skąd te opinie o złych sterach? Jedyne problemy jakie pamiętam to początki X1800 ale nV z GF8800 miała to samo więc w czym problem? Ile ludzi tyle opini. ;)

 

Pozdrawiam

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gość Ludwiczek

Przypominam, że ATI-AMD ma swoją dojną krowę czyli M$ i X360. ;)

 

PS. Odniosę się jeszcze do jednej sprawy czyli Catalystów. Dla mnie te stery są bardzo dobre. Mam radki praktycznie od 8500 poprzez 9100, 9500, 9800 i teraz X1800 i powiem, że tylko raz miałem problem z jakąś gra ale było to na Radeonie 8500. Od tamtej pory wszystko działa idealnie. Tak samo jest u mojego brata, który ma R300 i chwali sobie tą kartę jak i sterowniki z którymi nigdy problemów nie miał. Gdyby nie to, że mam manię wymieniania sterów co miesiąc-dwa to on by pewnie tego nie robił. :) Więc nie wiem skąd te opinie o złych sterach? Jedyne problemy jakie pamiętam to początki X1800 ale nV z GF8800 miała to samo więc w czym problem? Ile ludzi tyle opini. ;)

 

Pozdrawiam

10 mln Xboxów i ponad 200 milionów ludzi grających na Windowsie każdego miesiąca :lol2: Tak naprawdę to X360 jest miską mleka a nie krową :wink: Ale AMD/ATI i tak może sobie na takie spóźnienia pozwolić finansowo jedyne co tracą to opinię.

 

Spekulacje o wydajności też można już dawno włożyć między bajki jak ten "test" R600 w jakimś serwisie. Jak to wyjdzie zobaczymy po pierwszych testach póki co pewnie samo ATI nie wie co im z tego wyjdzie ;] Bo jak wiadomo to nie ATI robi karty a inne firmy i jak wiadomo wtedy karta karcie nie równa.

 

A co do SLI i CF to widać, że momentami w tym i w tym nie chodzi tak jak powinno.

Edytowane przez Ludwiczek

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

kojak_ct tylko ze zauważ ze od tamtego czasu czyli od premiery niezbyt udanego r520 sytuacja ATI konsekwentnie się pogarsza.... Sugerujesz że to, ze wtedy mimo opóźnień ATI nie zbankrutowało to moze sobie pozwalać na takie cyrki w nieskonczonosć i to bez zadnych konsekwencji?? Należy wziąć pod uwagę przede wszystkim to, ze obecnie ATI ma słabsza pozycje niż wtedy gdy wydawała r520.... To ze zostala wykupiona prz4ez AMD nic nie znaczy bowiem AMD również nie jest - delikatnie mówiąc- w najlepszej sytuacji jeśli chodzi o finanse....

 

Piszesz że ATI nie poniesie wielkich strat do czasu aż nie wyjdzie żadna gra DX10.... Hmmm zauważ że ATI już odnotowuje straty.... Jak pamietamy ATI mialo opanowane bardzo duża cześć rynku po premierze r300/350 i fatalnym układzie NVIDII w postaci NV30/35.... Od tamtej chwili ATI sprawia wrażenie jakby uwierzyło że już jest pozamiatane i co by NVIDIA nie robiła to i tak ATI będzie góra.... Tyle że NVIDIA wzięła się do pracy ze zdwojoną sila chcąc zmazać plame FX-ów a ATI wręcz przeciwnie.... Taka sytuacja trwa do dziś.... I nie chodzi tutaj o żadne DX10.... Jak już napisałem w moim wczesniejszym poście ludzie w zdecydowanej wiekszości nie kupuja GF8800GTX dla DX10 ale dla rewelacyjnej wydajnosci własnie w DX9.... I tutaj własnie leży problem ATI bo każdy o zdrowych zmysłach, który chce nabyć karte w przedziale od 1000 PLN w górę nie spojrzy na ATI....

 

Jeśli chodzi o przesuwaną premiere r600 to absolutnie ni4e chodzi o to że nie wydają go bo nie mają go czym promowac.... Bądźmy poważni.... Przeciez r600 jest już gotowy a problemy moga wynikac z natury czysto technicznej.... W tej fazie ,nawet jeśli r600 miałby wydajnosć daleką od oczekiwanej, nic już się nie da zrobić.... No chyba ze by go nieco przeprojektowali i dodali jakies tam funkcje ale to by oznaczao obsów o kolejne kilka miesięcy.... To samo tyczy się ewentualnego obniżenia poboru pradu oraz przejścia na 65nm co jest już zupełnie nierealne....

 

Co do Catalystów to nikt nie mówi że są złe bo obecnie ATI i tak poprawiła jakośc swoich sterów ale Jarek 135 napisał że Detonatory nigdy nie były tak dobre jak Catalysty co jest rzecz jasna kompletną bzdura bo za czasów Detonatorów to ATI miało takie stery że szkoda gadać....

 

Pozdro.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

NIC nie ma jeszcze na dx10

demo nv i SDK, no i caly sys :D no i jeszcze jakis soft do robienia gierek ;)

mam czekac na sprzet dx10 jak juz na rynku beda tylko gry dx10? dla mnie logiczne jest, ze najpierw jest sprzet, a potem wychodzi soft. a im wiecej sprzetu, tym szybciej/wiecej tego softu wychodzi

 

8800 wyszedł szybciej i NV szybciej zaczyna wszystko wypuszczać... Od kąd...?? Od czasu, kiedy weszło całe SLI, które jest tylko pokazem możliwości.

malo istotne co to jest, moze byc nawet pokaz sztucznych ogni, wazne, ze jest i dziala

 

SLi zostało przejęte w sumie i przerobione.

SLI zostalo przejete i przerobione? myslisz o 3dfx? no to SLI by nv i SLI by 3dfx baaardzo sie roznia, wspolne to maja kabelek(fizycznie) i nazwe(skrot) :)

 

Ati musiało stworzyć CF i na to potrzeba czasu,

aha. od czasu rage fury maxx to "troche" czasu minelo.

 

To, że teraz ( ATI ma także CPU - w nawiasie bo to AMD, ale to,to samo ) a NV ma NIC!!

wybacz, ale :lol2: a nv ma chip do komorek i co? :D normalnie jak w piaskownicy :D

 

więc po co mówicie o czymś, czego nie wiecie/nie widzicie, przypowiadacie przyszłość, czy co...

my to nazywamy luzna wymiana zdan i pogladow.

 

Pobór prąu/wydajność... Ludzie... w takim razie 8800GTX vs 7900GTX ... pobór prądu wzrasta praktycznie dwu krotnie a wydajność ...

ponad dwukrotnie :D

 

R600 wyjdzie już niebawem

jasnowidz ? ;)

 

Żeby nie było, że bronię biednej firmy ATI-AMD i w ramach tego pluję na NV...

dla mnie to wywalasz swoja frustracje probujac to ubrac w jakas tam wiedze, z ktora imho u ciebie kiepsko. Edytowane przez Sulaco

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tak naprawdę to X360 jest miską mleka a nie krową

A czemu tak? Kto daje zyski ATI? Mleko czy krowa którą się non stop doi? :D

 

Bo jak wiadomo to nie ATI robi karty a inne firmy i jak wiadomo wtedy karta karcie nie równa.

Praktycznie wszystkie karty to karty referencyjne zaprojektowane od początku do końca przez firmy produkujące układy graficzne. Ten trend panuje już kilka lat. Po prostu jest taniej a i kompatybilnosć przez to większa. Niektóre firmy wydają karty podkręcone ale dalej jest to karta referencyjna z poprawkami. ;)

 

kojak_ctod premiery niezbyt udanego r520 sytuacja ATI konsekwentnie się pogarsza.... Sugerujesz że to, ze wtedy mimo opóźnień ATI nie zbankrutowało to moze sobie pozwalać na takie cyrki w nieskonczonosć

Czemu r520 jest niezbyt udany? :) Przyznam szczerze, że jestem zadowolony z jego wydajności. ;) Jego problemem było wyjście na świat. W sumie to taki eksperyment (całkiem udany) w 90nm. ;) Co do sugerowania to nic nie sugeruję bo nigdy nic nie wiadomo i w końcu sami partnerzy oleją ATI. Ale na razie upadku bym nie wróżył bo samo M$ by na to nie pozwoliło. Zresztą nie sądzę, że M$ wybrał by konającego partnera. Takie ogromne inwestycje niosą za sobą wielką odpowiedzialność i nikt na słowo nie uwierzy w kondycję firmy. Na to potrzeba mocnych dokumentów! ;)

 

 

Piszesz że ATI nie poniesie wielkich strat do czasu aż nie ......

ATI na razie ponosi straty ale nie takie, jakie mogło by ponieść po premierze Crysisa. To głównie dla nich ludzie kupują nowe grafy. Ile osób kupuje 8800GTX dla DX9? Raczej te karty kupuje się dla dużej wydajności w DX9 i z dużą nadzieją, że DX10 będzie śmigał na full detalach. A reszta? Widać nawet po naszym forum ile ludzi czeka na Crysisa i wstrzymuje się z zakupem karty właśnie do chwili, w której będzie mógł ocenić ich wydajność. A co stało by się w momencie, gdyby 8800GTX w DX10 okazał się następcą nV5xx?? Wtedy ludzie zaczęli by po nich jeździć, że kupili najdroższe karty i kupa bo w Crysisie nie da się grać płynnie. I kogo by obchodziło, że ma dużą wydajność w DX9 skoro najbardziej oczekiwany tytuł nie chce chodzić jak należy w DX10? A następne gry w DX10? Więc twierdzenie, że 8800GTX jest do DX9, nie jest trafione. ;) I mam teraz pytanko. Co powiesz na sytuację: R600 w DX9 ma wydajność 30% większą od X1900XTX a w DX10 jest 50% szybszy od 8800GTX i jest w tej samej cenie? Którą kartę ludzie by kupili? :) Jak chce ktoś jeszcze odpowiadać to proszę bardzo. Zrobimy małą ankietę. ;)

 

Co do obsuwy to nie będę się za bardzo wypowiadał bo nie siedzę u nich i nie wiem, czemu nie wydają tej karty. ;) Prorokował też nie będę. :)

Pozdro.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gość Ludwiczek

A czemu tak? Kto daje zyski ATI? Mleko czy krowa którą się non stop doi? :D

W ciągu tych kilku lat istnienia X36 zarobią kilkukrotnie więcej na chipach do kart graficznych niż do Xa w końcu nowy chip mamy chyba co rok a xbox 360 z 5 lat pożyje.

 

Tego nie musiałeś komentować to było dla wróżek które już wiedzą o ile nie istniejąca karta jest szybsza od 88 :blink:

 

Co do pogarszającej pozycji ATI to też się obudziliście

 

http://www.reghardware.co.uk/2005/12/02/nv...ati_2005_sales/ :wink:

 

http://www.reghardware.co.uk/2006/12/06/q3...raphics_market/

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Co powiesz na sytuację: R600 w DX9 ma wydajność 30% większą od X1900XTX a w DX10 jest 50% szybszy od 8800GTX i jest w tej samej cenie? Którą kartę ludzie by kupili? :)

pomijajac juz fakt, ze imho nie jest mozliwe, aby po premierze r600 mial taka sama cene jak 8800gtx, to biore karte nv - nie bede bral karty specjalnie dla jednego tytulu, gdy w zdecydowaniej ich wiekszoci karta bedzie zdecydowanie wolniejsza - gtx potrafi byc ponad 2x szybszy od 1900xtx.

ja osbiscie kupowalem 8800 dla dx9, traktuajac dx10 jako mily dodatek, a nie koniecznosc przy wyborze. wyboru dla dx10 bede dokonywal z koncem tego roku, poczatkiem nastepnego.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Prawda jest taka Sulaco , ze jaka grafa by R600 nie bylo to i tak zakupisz 8900GTX a zeby miec pewnosc , ze bedzie wydajniej niz R600 to jak zwykle kupisz dwie :P ;)

 

To takie male OT .

 

Wracajac do tematu to mysle , ze mozna ten watek spokojnie zamknac do czasu pojawienia sie jakichs rzetelnych wiesci bo na chwile obecna z tematu zrobil sie jeden wielki smietnik (deja vu mam :blink: )

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

W ciągu tych kilku lat istnienia X36 zarobią kilkukrotnie więcej na chipach do kart graficznych niż do Xa w końcu nowy chip mamy chyba co rok a xbox 360 z 5 lat pożyje.

Nie sądzę, że na kartach graficznych zarobią więcej. Celnie zauważyłeś. Karty na PC wychodzą średnio raz w roku a na X raz na 5lat. I teraz weź pod uwagę, że raz wydasz na projektowanie GPU pod konsolę i ciągniesz zysk przez 5lat. A teraz GPU do PC co roku musisz zaprojektować a to niestety słono kosztuje. I teraz przez pięć lat sprzedajesz powiedzmy 60milionów konsol ciągle z tym samym GPU tylko coraz tańszym w produkcji. Na PC niestety co roku wracasz do punktu wyjścia i ceny startowej. Przez rok trochę stanieje ale trzeba znów wydać na badania. I teraz ile sprzedaje się kart na PC? Na pewno z roku na rok coraz mniej bo gracze Pecetowi mają dość wrzucania kasy do wiaderka bez dna. Ja to tak widzę. ;)

 

PS. Jeśli jakoś Cię uraziłem to przepraszam. Nie miałem zamiaru tego robić. Chciałem tylko wyjaśnić pewną kwestię. ;)

 

pomijajac juz fakt, ze imho nie jest mozliwe, aby po premierze r600 mial taka sama cene jak 8800gtx, to biore karte nv - nie bede bral karty specjalnie dla jednego tytulu, gdy w zdecydowaniej ich wiekszoci karta bedzie zdecydowanie wolniejsza - gtx potrafi byc ponad 2x szybszy od 1900xtx.

ja osbiscie kupowalem 8800 dla dx9, traktuajac dx10 jako mily dodatek, a nie koniecznosc przy wyborze. wyboru dla dx10 bede dokonywal z koncem tego roku, poczatkiem nastepnego.

No to jest twoja opinia. Oki. Ale Ty jesteś jakby wyjątkiem i nic nie stoi na przeszkodzie abyś wymienił kartę gdyby gdzieś okazała się za wolna (np DX10). :) Pozostali tak już nie sądzą. :P W temacie o kartach często przewijają się pytania typu: Co wybrać? Czekać na jakąś w miarę tanią i wydajną kartę z DX10 czy lepiej kupić teraz coś wydajnego w DX9 (przejściówka) i przy okazji już dość taniego a później wymienić na konkretną w DX10? Nie każdego stać wydać 2x2000zł dla DX9 i pod koniec roku kolejne tylko dla DX10. ;) Na razie karty typu X1900 czy GF7900 dają spokojnie radę w dx9 więc wymieniać nie ma sensu. Ale jak już wymieniać to na coś, co będzie chciało działać przyzwoicie w DX10. Kilka tytułów nam się szykuje więc nie jest to bezpodstawna wymiana dla jednej gierki. A to już trzeba przemyśleć. Wiadomo, że gdybym miał max kasy to było by mi to obojętne. Ale mając ograniczony budżet wybiorę coś na przyszłość (DX10) a wydajność +30% w DX9 już styknie spokojnie do komfortowego grania w starsze tytuły. ;)

 

Pozdro

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

- nie bede bral karty specjalnie dla jednego tytulu, gdy w zdecydowaniej ich wiekszoci karta bedzie zdecydowanie wolniejsza - gtx potrafi byc ponad 2x szybszy od 1900xtx.

wróżka ?? :wink:

 

wracając do tematu

kojak_ct

to już nawet nie chodzi o kasę tylko o zdrowy rozsądek, tytuł warty uwagi (o co ostatnio coraz trudniej) i wolny czas aby z tej 8800 czy nawet słabszej 1900 korzystać

p.s.

niech ktos posprząta ten HydePark

Edytowane przez Racuch

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Bęzie tak jak napisał ktoś parenaście postów wcześniej

Lepsza będzie ta karta która osiągnie lepsze rezultaty w najnowszym 3DMarku 06/07

oraz wypasionych grach DX10 pierwszą będzie chyba CRYSIS.

:) problem w tym że R600 będzie za 2 miechy ,a Crysis niewiadomo kiedy :/

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gość Ludwiczek

Nie sądzę, że na kartach graficznych zarobią więcej. Celnie zauważyłeś. Karty na PC wychodzą średnio raz w roku a na X raz na 5lat. I teraz weź pod uwagę, że raz wydasz na projektowanie GPU pod konsolę i ciągniesz zysk przez 5lat. A teraz GPU do PC co roku musisz zaprojektować a to niestety słono kosztuje. I teraz przez pięć lat sprzedajesz powiedzmy 60milionów konsol ciągle z tym samym GPU tylko coraz tańszym w produkcji. Na PC niestety co roku wracasz do punktu wyjścia i ceny startowej. Przez rok trochę stanieje ale trzeba znów wydać na badania. I teraz ile sprzedaje się kart na PC? Na pewno z roku na rok coraz mniej bo gracze Pecetowi mają dość wrzucania kasy do wiaderka bez dna. Ja to tak widzę. ;)

 

PS. Jeśli jakoś Cię uraziłem to przepraszam. Nie miałem zamiaru tego robić. Chciałem tylko wyjaśnić pewną kwestię. ;)

 

 

Pozdro

Mylisz się i to grubo z roku na rok ilość sprzedawanych kart graficznych rośnie. W 2005 wzrosłą o ponad 10% :wink: Swoją drogą wątpię by 60 milionów X36 zostało sprzedanych w ciągu 5 lat tyle to PSów się sprzedało a to było o wiele popularniejsze. Wiedziałem, że to odpiszesz ale poczytaj sobie w 2005 ATI zarobiło coś koło 2 bilionów dolarów ( na nasze to jest 6 miliardów PLN jeśli się nie mylę ). Gdyby się to nie opłacało to myślisz, że ATI by dalej produkowało głównie chipy do kart graficznych :lol: ? Z resztą gdyby było tak jak piszesz, że ATI zbija kokosy na X36 to dlaczego NV która pokonała AMD na rynku kart graficznych zarobiła o wiele więcej? Przecież te karty grafiki taakie nie opłacalne ;] A i co do spadku cen chipów to to samo się dzieje z chipem do X36.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

wróżka ?? :wink:

nie :P to byla moja odpowiedz na czysto teoretyczne pytanie zadana prze kojak_ct

"Co powiesz na sytuację: R600 w DX9 ma wydajność 30% większą od X1900XTX a w DX10 jest 50% szybszy od 8800GTX i jest w tej samej cenie? Którą kartę ludzie by kupili?"

niech ktos posprząta ten HydePark

imho temat sie zamknie i otworzy nowy, jak pojawi sie r600, na razie mozemy spokojnie traktowac to jako HydePark, oczywiscie w granicach dobrego smaku ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@Ludwiczek: "Wiedziałem, że to odpiszesz ale poczytaj sobie w 2005 ATI zarobiło coś koło 2 bilionów dolarów ( na nasze to jest 6 miliardów PLN jeśli się nie mylę )."

? Chyba 2 miliardów, po angielsku billion to polski miliard ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gość Ludwiczek

@Ludwiczek: "Wiedziałem, że to odpiszesz ale poczytaj sobie w 2005 ATI zarobiło coś koło 2 bilionów dolarów ( na nasze to jest 6 miliardów PLN jeśli się nie mylę )."

? Chyba 2 miliardów, po angielsku billion to polski miliard ;)

A wiesz co to jest Dolar a PLN?

Edytowane przez Ludwiczek

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Czyli piszesz, że 2 biliony USD = 6 miliardów PLN? Jak to obliczyłeś? Powinno być, że 2 miliardy USD = 6 miliardów PLN. Bilion w języku angielskim to jest zupełnie inny bilion niż w języku polskim.

Edytowane przez Xanagaz

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gość Ludwiczek

Czyli piszesz, że 2 biliony USD = 6 miliardów PLN? Jak to obliczyłeś? Powinno być, że 2 miliardy USD = 6 miliardów PLN. Bilion w języku angielskim to jest zupełnie inny bilion niż w języku polskim.

No masz rację bilion w angielskim znaczy co innego a znaczy tyle co miliard w naszym więc mówiąc o bilionie miałem na myśli bilion u nich czyli miliard u nas :wink:

Edytowane przez Ludwiczek

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Chyba nikogo już nie dziwi fakt, że im bliżej premiery oczekiwanego produktu, tym więcej informacji pojawia się na jego temat w sieci. Nie inaczej jest z układem graficznym R600 produkcji AMD/ATI. Pomijając fakt, że pierwsze karty powinny pojawić się już w styczniu (według pierwszych zapowiedzi), wszelkie plotki i domysły będą nam towarzyszyć jeszcze co najmniej 2 miesiące. Najnowsze donoszą, że wszelkie od tej pory opublikowane informacje i testy są nieprawdziwie i nie odzwierciedlają wydajności tego układu. Co więcej będzie on taktowany zegarem ponad 800MHz i w wersji GDDR3 wykorzystującej 12-nasto warstwową płytkę PCB pojawi się w sklepach na początku maja. Model wyposażony w pamięci GDDR4 (X2900XTX) będzie prawdopodobnie wykorzystywał 16-nasto warstwową PCB i w dniu premiery w połowie maja będzie dostępny w mocno ograniczonych ilościach. Pojawiły się także pogłoski, że na prezentacji odbywającej się w San Fransisco, AMD zaprezentowało stacje roboczą opartą o procesory Opteron (rdzeń Barcelona) i konfiguracje CrossFire złożoną z kart Radeon X2900XTX. Wydajność w operacjach zmiennoprzecinkowych takiej platformy przekroczyła wartość jednego teraflopa, a naukowcy ze uniwersytetu w Stanford już pracują nad aplikacjami, które byłyby w stanie wykorzystać potencjał tego typu maszyn.

 

Nic tylko czekac cierpliwe....:)

Edytowane przez Jang

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

R600 :) i jak widzimy nie jest to taki kolos :wink:

Dołączona grafika

Dołączona grafika

R600 cards are showing up in working order. ZDNet showed a picture of a lone OEM ATI R600 yesterday. Today for you we have pictures of two ATI R600 cards working in unison, but rather than graphics, they are pounding away showing off their prowess in a Teraflop Stream demo (MADD results shown below).

 

Certainly it is good to see ATI's next-gen graphics cards showing up even if it is not pushing pixels. We have been able to confirm some other R600 news that is not good. ATI is stating that a SINGLE R600 high end configuration will require 300 watts of power (+/-9%) and a DUAL R600 "CrossFire" high end configuration will require, as you might guess, 600 watts of power (+/-9%). Compare that to a single GeForce 8800 GTX that will pull 150 to 180 watts. Add in a CPU to that mix and you overtake most power supplies’ peak ratings on the retail shelves today.

 

Also many have been worried about the size of the new R600 video cards. ATI is stating that 345mm / 13.6" will be the required space to fit the cards in a case. (Yes, the retail version will be somewhat shorter, or at least that is what is told to us even though we have yet to see one.) This figure is the card's 335mm physical length plus 10mm to properly install the card. A GeForce 8800 GTX is just under 11 inches longs while the 4 GPU 3dfx Voodoo 5 6000 comes in at 11.75 inches. Certainly if you have an R600, it looks like you will be able to claim having the longest in the room…

Edytowane przez cavarr

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

SINGLE R600 high end configuration will require 300 watts of power (+/-9%) and a DUAL R600 "CrossFire" high end configuration will require, as you might guess, 600 watts of power (+/-9%)

 

niezle,mysle ze plyta dfi da rade, zastanawiam sie tylko nad zasilaczem bo cos mi sie wydaje ze kleknie mi przy tej grafie...jaki byscie ewentualnie zaproponowali zasilacz do niej ??

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gość Ludwiczek

R600 :) i jak widzimy nie jest to taki kolos :wink:

Nie taki kolos? Przecież to ma około 7 CM więcej od 8800gtx rozumiem, że ironizujesz teraz.

W moją bude się to nie zmieści ;/

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie taki kolos? Przecież to ma około 7 CM więcej od 8800gtx rozumiem, że ironizujesz teraz.

W moją bude się to nie zmieści ;/

Ale tu jest przecież pokazana wersja OEM :wink:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

otoz w jrezyku angielskim nie ma slowa "miliard" zamiast tego slowa jest "bilion".U nas jest slowo "miliard" i oznacza liczbe wyzsza od "miliona"

1.000.000.000 -miliard

1.000.000 -milion

u nas jest tak - tysiac-milion-miliard-bilion-biliard-trylion-...

a w angielskim jest tak -tysiac (tyle ze czytany "tałzent" nie pamietam jak sie pisze :D)-milion czytany jako milion-miliard tylko ze po angielsku czytany jako bilion.Poprostu w anglielskim nei ma slowa miliard,zastapiona je slowem "bilion" a u nas istnieja oba slowa tyle ze u nas miliard sie czyta i te nmiliard oznacza miliard 1.000.000.000 a w angli czyta sie bilion a oznacza tez miliard 1.000.000.000 :D skomplikowane do wytlumaczenia ale jakos idzie xD :P

George W. Bush "i spent 1 bilion USD" -wydalem jeden MILIARD 1.000.000.000dolcow

Lech/Jaro (o w picze :x nawet nie pamietam imienia naszego prezydenta xD) kwa kwa Kaczynski "wyrzucilem 1 miliard zł w bloto" -wyrzucilem jeden MILIARD 1.000.000.000 zł w bloto.

krotko piszac

1 miliard wszedzie oznacza te sama liczbe ALE TYLKO INACZEJ SIE CZYTA.

:D :E

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ten ciekawy wywód o zabarwieniu politycznym (nawet w temacie o R600 dochodzą do głosu kaczki!) nie przybliżył nas do bardziej dokładnego poznania specyfikacji czy wydajności kart serii X2800 i pochodnych :P. Ja mam pytanko następujące, czy sądzicie, ze karty za powiedzmy 500 zł z nowej serii X2000 będą dużo wydajniejsze od obecnych kart za te przykładowe 500 zł (mozna wpisac dowolną kwote). Oczywiscie chodzi mi o DX9 :D

 

Bo ja licze, że kupie coś o wydajności obecnego X1650 XT w cenie poniżej 500 zł i jeszcze na dokładke chłodzone pasywnie. Myślicie że to możliwe?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Z tematu zrobil sie jeden wielki smietnik . Na dzien dzisiejszy nie ma konkretnych informacji np o wydajnosci tej karty .

 

Jezeli takie sie pojawia to prosze zglosic sie do mnie na PW , na razie temat zamykam i zabieram sie za jego czyszczenie <_<

 

Kazdy kolejny temat o R600 bez mojej zgody = odpoczynek na tydzien od forum .

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gość
Ten temat został zamknięty. Brak możliwości dodania odpowiedzi.



×
×
  • Dodaj nową pozycję...