
Domell
Stały użytkownik-
Postów
790 -
Dołączył
-
Ostatnia wizyta
Treść opublikowana przez Domell
-
No własnie - Bądźmy poważni.... Fakt w kilku tytułach Radek x1900xtx może i osiąga dosc wyraxną przewagę nad GF7900GTX ale i tak nie zmienia to faktu że w zdecydowanej większosci gier te róznice na korzysc karty ATI są niewielkie a i nie zawsze są.... To samo tyczy się GF7900GS/Radka x1950Pro :) Co do wyników rv670 to ponoć w 1600x1200 w 3D marku 06 osiąga blisko 8k pkt na C2Q6600....
-
Hmm a gdyby tak 128SP "puscić" na ok 2,5Ghz?? :)
-
Nie potrzeba aż dwóch G92 by osiągnąc wydajnośc 1Tflopa :wink:
-
Bądźmy poważni.... Nie dosc że nie wygrywa we wszystkich testach to jeśli wygrywa to róznice są niewielkie a co najważniejsze to tam jest porównanie do GF7800GTX 512MB a nie do GF7900GTX który jest szybszy :wink: I gdzie ten pogrom?? Owszem - Radek x1900xtx jest szybszy od GF7900GTX nawet ale róznice na jego korzysc są niewielkie a i to nie zawsze.... :)
-
Tjaa :-| Ciekawe z kórej strony B-)
-
Hmm z tego co wiem to G80 jest w procesie 90nm a nie 80nm wiec nie bardzo wiem co te niby-obliczenia mają przedstawić :blink:
-
Hehe a skąd pewnosc że nowego High-endu od NVIDII nie będzie?? :)
-
Nic nie byłoby w tym dziwnego tym bardziej że rv670 to ma być Radek 2950 Pro a nie Xt.... Tak samo jakz Radkiem x1950Pro który jest wolniejszy od X1900xt :)
-
Mógłbyś rozwinąć nieco swoją wypowiedź w tej kwestii?? A to niby czemu?? Co to ma do rzeczy?? Jesli piszesz że G80 i 90nm proces to "zbrodnia przeciw ludzkości" to czym w takim razie nazwać to co zaprezentowało ATI ze swoim r600, który jest wolniejszym, bardziej prądożernym i bardziej grzejącym się GPU od G80 mimo iż wykonany jest w procesie 80nm.... Jak na 90nm proces i tak ogromną liczbę tranzystorów - a co za tym idzie ogromny rdzeń - z jakiej składa się G80 to taki pobór mocy jaki ma G80 to jest to wręcz wynik kapitalny.... Najprawdopodobniej zarówno produkty NVIDII jak i AMD/ATI nie będa się różnić jeśli chodzi o architekture od odpowiednio G80 jak i r600.... Tak że można w sumie powiedziec że zarówno jedni i drudzy zafundują nam poniekad odgrzewane kotlety.... Co do DX10 to co z tego że nie ma gier w pełni bazujących na DX10?? Przeciez większośc osób które kupiły GF8800 nie zrobiła tego z myśla o DX10 jako głównym celu swojego zakupu.... To własnie rewelacyjna wydajnosc G80 w DX9 (w DX10 też się sprawuje bardzo dobrze) spowodowała tak dużą popularnośc G80.... I zakup takiej karty jest uzasadniony chocby z tego powodu bowiem karty poprzedniej generacji wymiękają już w najnowszych grach pod DX9 tak więc jeśli ktoś gra w wysokich rozdziałkach (a 19 i wiecej calowe monitory nie są już tak niedostepne nawet dla mniej zamożnych użytkowników) i do tego z AA/AF czy HDR to praktycznie nie ma wyboru a konkretnie wybór jest tylko jeden GF8800.... j.w.
-
Będzie napewno :) Przeciez to jakby ne było r600 tyle ze z zaniżonymi zegarami i z 256-bitowa szyną :wink:
-
No to prawda szczególnie jeśli chodzi o nowego Medala :) Co do Bioshocka to aż tak dobrze chyba nie jest szczególnie w trybie DX10 ale i tak karta zapewnia płynną rozgrywkę :) Generalnie to dobrze że i GF8800GTS i nowy Radek równie dobrze radzą sobie w grach na nowym silniku tym bardziej że ma on być dosc często wykorzystywany.... Jest to tym bardziej dobra wiadomoc, że jak widac silnik UE3 chodzi bardzo dobrze jak na tak wspaniałą grafę i możliwości jakie w nim drzemią :wink: Co do tego testu w Crysisie to możesz dać skriny albo linka do niego?? Bo przekopałem cały temat o Crysisie i nie zauważyłem żadnego testu :angry:
-
Niewiem czy już było ale pod tym linkiem jest tabelka oficjalna z AMD odnośnie Radków HD2900Pro i GT :) http://www.xtremesystems.org/forums/showpo...mp;postcount=22
-
Było :) Tyle ze nie ma to wiele wspólnego z rzeczywistością :wink:
-
Hmm ale to nie tylko moje zdanie.... :wink: No ale cóż - pozostaje nam tylko poczekać te 2 miechy i przekonać się jak to naprawdę będzie :)
-
Bez obaw :) Będzie dobrze.... I to w Listopadzie.... Tego roku oczywiście :wink:
-
Hmm :) Radze poczekac do Listopada.... :wink:
-
Jak narazie to całe pasmo domysłów jeśli chodzi o VR-Zone i niektóre serwisy.... Swoją droga niby wyciekła specyfikacja G92 i G98 a VR-Zone pisze że zegary nie są znane.... Pozatym wydaje mi się że GF8700GTS to nieco "dziwna" nazwa dla układu który wydaje się być szybszy od GF8800GTS :blink: Pozatym takty Shaderów w układzie High-End mają być na poziomie ok. 2500 Mhz B-) Możliwe zatem było by to że high-end bedzie mial 128SP co przy ok. 2,5 Ghz daje blisko 1Tflopa mocy obliczeniowej.... :) Jeszcze pytanie do Sulaco albo Morgi.... Jeśli jest tak jak to opisaliście z tym MCM i możliwą komunikacją między rdzeniami to powiedzcie czy to rozwiązanie jest dużo lepsze (wydajniejsze) od rozwiązania typu SLI czy CF?? I czy nie jest tutaj potrzebne wsparcie sterowników?? I drugie pytanie - czy przy zastosowaniu takiego rozwiązania, jeśli zostaną połączone 2 układy o szynie 256-bit, z 24TMU, 16ROPami i 96-64SP (przykładowo) to układ będzie działał jak układ o 512-bitowej szynie, 48TMU, 32 ROPach i 192-128SP?? Czy np. jeśli chodzi o szyne to przy SLI z tego co wiem nie sumowało się ich szerokości.... Z góry DZIĘKI za odp. :)
-
Czy mógłbys wytłumaczyć mniej więce OCB z tym skrótem "MCM"?? http://www.forum-3dcenter.org/vbulletin/sh...p;postcount=950 http://www.google.com/translate?u=http%3A%...=en&ie=UTF8 Czyżby NVIDIA miała opracowany interfejs pozwalający na zastosowanie układu jako dwurdzeniowego??
-
Co do tych specyfikacji to jeden z modów na PCInlife (a stamtad pochodzą te specyfikacje) twierdzi że to fejk :) .... Tutaj chyba dużo bardziej wiarygodne info pochodzace z jednego z "niedostepnych" tematów odnośnie G92 na forum PCInlife.... Tlumaczenie jest z chinskiego więc :wink: - G92 is to have 6 TPCs @ 1.6GHz sports club (with the arithtmetischen achievement this would correspond to 4 TPC @ 2.4GHz) -10k+ in the 3DM06 - the flag ship version is to consist of two G92-Dies on a Package (, much sense does not make, except NV really goes the next step) - Flag ship version is to reach evenly 1 TFLOPs -800Mhz clock for TMUs/ROPs - G92 " GX2 " is to support hybrid SLI, whereby under “2D” only one core is active - also it seems to probably give a document, which lists these data B-)
-
I zapewne mniej więcej tak to bedzie wygladało.... Po premierze serii 9, ósemki powoli zaczną schodzić na dalszy plan - to naturalna kolej rzeczy.... Bardzo istotną w tym wzgledzie rzecza jest to, że GF8800GTS jest "zablokowanym" GF8800GTS w związku z czym koszt produkcji takiego układu jest równy GF8800GTX.... Dla NVIDII jest to dosc duzy koszt (jeśli wziąc pod uwage wielkosć chipa który jest poprostu ogromny) dlatego tez taki układ, na jaki zapowiada się G92 byłby dla nich wręcz zbawieniem.... Chodzi o to że fizycznie posiada te 96SP, węższą szynę pamięci i do tego wykonany jest w procesie 65nm.... Dzięki temu koszty produkcji są zdecydowanie niższe niż G80 dlatego tez uważam że może to miec znaczenie przy spadku cen kart.... Poprostu NVIDIA będzie mogła sobie pozwolić na bardziej odważne i zdecydowane obniżki kart opartych na tym układzie poprzez niski koszt jego wytworzenia.... Na koniec chciałem jeszcze dodać ze G92 nie tylko piwinien byc - jak to ująłeś Caleb - killerem dla wersji 320MB ale i dla 640MB.... :) Mam nadzieję ze tak będzie :D
-
Jak to po co?? 96SP, 256-bit szyna pamięci a wszystko to w procesie 65nm.... Rdzeń malutki, chłodny, pobierający mało prądu i zapewne świetnie się kręcący.... Tutaj przede wszystkim chodzi o koszty produkcji.... Wg mnie rynek bardzo potrzebuje karty DX10 która będzie godnym następcą GF7900GS.... :) Karta ma być tańsza od GF8800GTS przy wydajności pomiedzy GF8800GTS a GF8800GTX.... Żeby była jasnośc - to NIE JESt układ High-End.... Karta jest czymś w stylu GF6800GS czy GF7900GS.... Co do układu High-End to wg kolesia, który wydaje się miec informacje z pierwszej ręki, flagowy układ G9x ma być wydajniejszy od GF8800Ultry średnio o jakieś 25-30% oraz 50% w niektórych przypadkach (zapewne przy najwyższych ustawieniach grafiki).... Info z Xtremesystems....
-
Najprawdopodobniej G92 posiada 96SP.... Uklad w 3D marku 06 osiąga wydajnośc 10k pkt.... :) http://forum.beyond3d.com/showpost.php?p=1...p;postcount=151
-
Czyżby jednak nie?? http://www.xtremesystems.org/forums/showpo...mp;postcount=23 :)
-
Spokojnie - to dopiero pierwszy stepping tych procków.... W miare udoskonalenia procesu technologicznego możliwe bedzie osiągniecie wyższych taktów.... EDIT: Pozatym niewiadomo na ile tutaj ograniczeniem jest sama płyta główna....
-
Tutaj pierwsze testy próbek inzynieryjnych Wolfdale`a (czyli dwurdzeniowca na rdzeniu Penryn).... http://translate.google.com/translate?u=ht...Flanguage_tools http://66.218.71.231/language/translation/...78%26t%3d158813 Warto zwrócić na bardzo niskie temperatury pracy w porównaniu do Conroe oraz na niski pobór mocy :) Równiez OC wygląda nieźle - 3,2 Ghz przy napięciu 1,25V :wink: Ciekawe jaki jest MAX OC tych pierwszych wersji Wolfdale`a....