
Domell
Stały użytkownik-
Postów
790 -
Dołączył
-
Ostatnia wizyta
Treść opublikowana przez Domell
-
GT200 ma ponoć 1,3 Ghz taktowane SP.... Pozatym mowa jest tutaj o 2XG80 czyli 256SP.... :wink:
-
No napewno RAM ma tutaj znaczenie więc pewnie masz rację w tej kwestii jednak akurat porównanie tyczyło się raczej wyniku 2xG80 a ten specyfikacją jest lepszy od GF9800GX2.... Szersza szyna danych i 768MB nie są już tak dużą różnicą jak w przypadku G92 i GT200 a mimo to nawet 2XG80 nie jest w stanie się nawet zbliżyć do wyniku GT200.... Tak czy inaczej pewnie same ROPY dają dużo i przede wszystkim pamieć jednak może nie tyle jej ilość (choć też z pewnoscią) a szyna 512-bit która w takich rozdziałkach pokaże swoją przewagę.... :wink:
-
Tutaj to już będą działać poszczególni producenci :wink:
-
Hmm ale może w GT200 nastapiły jakieś daleko idące usprawnienia poprawiające znacząco efektywność każdego z elementów układu?? TMU z GT200 może jest jeszcze bardziej usprawnione niż te z G92, które już w porównaniu do G80 mialo je usprawnione.... To samo z ROPami - mimo iż jest ich "tylko" 8 wiecej niż w G80 to moze dodatkowo jeszcze zostały usprawnione.... No i w końcu SP - cóż jeśli chodzi o takty to raczej tutaj cudów nie należy się spodziewac o czym świadczy chocby "zaledwie" 1Tflop teoretycznej mocy obliczeniowej.... Pytanie tylko czy 1Tflop GT200 = 1Tflop z G80 (gdyby podnieśc takty SP)?? Niewiem czy dobrze to rozumiem ale może poprostu GT200 bazuje na 3Flops na Shader w "standardzie".... Wiadomo że ma moc obliczeniową ok 350Gflops (2Flops/Shader) a już szczytową nieco ponad 500Gflops (w tym przypadlu 3Flops/Shader).... Może GT200 w każdej sytuacji ma ten 1Tflops i nie zależy to od sytuacji tak jak w G80 a wtedy przewaga nad G80 wzrasta do 3X.... NVIDIA miała kupę czasu żeby w spokoju rozwinąć i znacznie ulepszyć każdy oszczególny element i tak już świetnej architeORT: ORT: ktury.... W koncu prawie 1,4 mld tranzystorów nie znalazło się tam przez przypadek.... Może faktycznie jest jeszcz coś w tym układzie o czym niewiemy.... Co do samych wyników to nie wydaje mi się - i mam nadzieję - żeby był to fejk.... Za blisko do poremiery zeby mogły się teraz ukazywac znacząco odbiegające od prawdy informacje.... Gdyby takie info ukazało się ze 3 miechy temu to mozna by bylo powątpiewać ale teraz?? Na nieco ponad 3 tyg od premiery?? Co więcej te info o wydajności pochodzi z tego samego źródła co wszelkie pozostale info dotyczace tego układu więc wydaje się bardzo watpliwe zeby wypuszczali rzetelne info o specyfikacji zmyślając kompletnie wydajnośc.... Niewiarygodne - jak się początkowo wydawało - info o wydajności G80 też wypływały z tego źródła i okazały się prawdziwe :wink: Miejmy nadzieję ze to dobry znak :razz:
-
.... jak nie więcej :wink: 7 tys. pkt w trybie Xtreme w Vantage to o ok. 60-70% lepiej niż GF9800GX2 a to już coś.... Tak więc przyjmując że Vantage dośc dobrze odzwierciedla realną wydajnośc kart w grach możemy się spodziewać ogromnego wzrostu wydajności względem najszybszych dzisiejszych kart.... :rolleyes:
-
W naszym kraju może mało kogo ale tam gdzie highend kosztuje średnio co najwyżej 1/3 pensji a nie całą jak u nas sytuacja jest nieco inna :wink:
-
Skąd pewność że to moc szczytowa?? Tzn. nie że temu przeczę ale chyba narazie nie było info konkretnego na ten temat?? Co cod mocy G80 to podaje się różnie raz 500Gflops a raz 350Gflops.... Na to pytanie odpowie nam taktowanie Shaderów :) PS. Czyżby jednak GT200 miał 120TMU?? Podobno jlastry zostały w identycznych proporcjach jak w G80 i G92 czyli 15x16 daje 240SP a to z kolei przekładałoby się na 15x8TMU czyli 120TMU.... Chyba że zmniejszymi ilośc TMU na klaster.... Czy taka duża ilośc jest w ogóle potrzebna?? Nie lepiej byłoby dac 80TMU a dołożyć np jeszcze SP??
-
Mnie jednak zastanawia jeszcze coś - Rv770 ma też mieć niby 1Tflops podobnie jak ma GT200 więc skąd aż tak duża różnica w wydajności miedzy tymi układami?? Przyjmuje że Rv770 jest szybszy od G92 od te 25-30% a GT200 bije G80 o 100-150% (jak nie więcej).... Ciekaw jestem jakie usprawnienia NVIDIA dokonała że dostajemy taki wzrost wydajności (zaznaczam -JEŚLI te ploty sa prawdziwe) przy, co bardzo istotne!!, tej samej architekturze!! Dotychczas bowiem takie skoki towarzyszyły przejściom z jednej architektury na drugą - NV30/35-->NV40, G70-->G80.... Teraz podobny wzrost (lub nawet większy!!) zapowiada się między G80/G92-->GT200 jednak tutaj nie mamy całkowicie nowej architektury (przynajmniej wszystko na to wskazuje ze jest to tylko lifting G8x choć jak widac potężny - ale jednak lifting).... :wink:
-
Heh spoko.... Niewiem jak bedzie z cenami Radków ale 1400PLN za GT200 to chyba marzenia - przynajmniej przez pierwszych kilka miechów.... Wg mnie poniżej 2k nie bedzie (GTX280).... :wink:
-
Napisz w jakie ploty Ty wierzysz?? Ja podaję poprostu info ze źródła które dotychczas miało bardzo wysoka sprawdzalność w przypadku ukłaów graficznych (szczególnie NVIDII).... Z tego źródła "wyciekały" pierwsze benche G80, które zresztą też były wyśmiewane jako nierealne, gdzyż wskazywały na to, że G80 bije poprzedników o co najmniej 2 razy.... Jak się okazało potem wszystko to była prawda.... O G92/G94 również.... Dlatego też bardziej wierze w to info niż w jakieś niusy z Fudzilli i wielu innych portali.... Pozatym warto dodac że tak chętnie i czesto cytowane niusy z uważanego za rzetelny (słusznie zresztą) serwisu VR-Zone pochodza własnie z PCInlife, czego czesto nie podają :wink: A teraz pytanko.... Dlaczego Ty w to nie wierzysz?? Konkretny powód?? Bo jeśli brak wiary wynika tylko z tego że "to niemożliwe i już" to wiesz.... :wink: Podkreślam raz jeszcze - nie twierdzę że to na 10000% prawda i ślepo nie wierze tylko i wylącznie w te info jednak sądzę że, mimo iż na pierwszy rzut oka wyglądają nierealnie, wcale takie nie są tym bardziej że NVIDIA z NV40 i G80 pokazała że olbrzymi wzrost wydajności w stosunku do poprzedników nie jest niczym nadzwyczajnym i taki spokojnie mozna osiągnąć tym bardziej ze tak naprawdę na coś nowego czekaliśmy prawie 20 miesięcy (czyli praktycznie tyle samo co w przypadku G70-->G80).... :)
-
Hmm ostatnie wieści mówią o blisko 1,4 Mld tranzystorów!!!!!! :blink: Jeśli chodzi o moc obliczeniową to ma to być niecały 1Tflops.... Ciekawe tylko w jaki sposób liczony - czy odnosi się to do szczytowej wydajności (G80 ma tutaj nieco ponad 0,5 Tflopsa) czy też można to porównać do ok 350Gflops od G80.... Co ciekawe, Radki Rv770 mają miec podobno też ok 1Tflops teoretycznej wydajności więc ciekaw jestem jak to jest że między tymi układami ma być praktycznie 100% róznicy w wydajności :unsure: ?? (rewelacyjna efektywność układu??) Co do znacznego wzrostu wydajności to jeśli układ "gniecie" w Vantage`u w najwyższym trybie prawie 2xGF9800GX2 to należy oczekiwać że wydajność w zdecydowanej wiekszości przypadków będzie wynosiła 2-2,5X G80 a czasem być może i więcej skoro podobno GTX280 ma fruwać w Crysisie w rozdziałce FullHD z AA/AF bez problemów.... Tutaj to już jest co najmniej 3X G80.... :wink:
-
Heh myślałem ze pierwszy przykozacze tym niusem ale niestety zostałem uprzedzony :wink: A tak na serio to jeśli ten wynik jest prawdziwy to potega niesamowita :wink: Co wiecej ponoć wersja GTX280 radzi sobie bez problemu z Crysisem w 1920x1200 a AA/AF.... :rolleyes: A skoro tak, to można być spokojnym ze jakas gra w najblizszym czasie bedzie sprawiala jakiekolwiek problemy bez wzgledu na detale i rozdzialke :wink: Dodam jeszcze że w takiej sytuacji te 250W poboru mocy jest w pełni usprawiedliwione....
-
Jak dla mnie to raczej chodzi własnie o 50% wzrost wydajnośc względem analogicznej liczby SP pierwszej generacji a tłumaczenie może być poprostu niedoskonałe (info bodajże z tureckiego forum).... Cóż to bowiem byłoby za osiągnięcie jeśli 90% więcej SP miałoby dawać tylko 50% wiecej wydajnosci?? Że co?? Obniżyliby efektywność SP i jeszcze by się tym chwalili?? W taki razie 192SP w słabszej wersji musiałoby być niewiele szybsze (o ile w ogóle) od 128SP w dzisiejszych GF8800GTX/Ultra i GF9800GTX.... Imo bez sensu dlatego można przypuszczać że niemal pewne jest iż tutaj chodzi własnie o 50% wiecej wydajnosci jesli porownalibysmy do 240SP obecnej generacji czyli jednostek SP znanyczh z układów G8x/G9x.... :wink: Co więcej dwukrotny wzrost w Vantage`u w stosunku do GF8800GTX byłby raczej niemozliwy bez znacznego wzrostu wydajnosci w SP.... Można teoretycznie przyjąć że te zaledwie 50% mogłoby być realne, gdyż mogli obniżyc takty do 1,2Ghz czy cuś takiego jednak jeśli tak, to całe to dokładanie (niemalże podwojenie) liczby SP a co za tym idzie i całego rdzenia, nie mialoby sensu.... :-|
-
Hmm.... Wydajnościowo podobno GT200 ma być na poziomie 2-2,5X GF8800GTX więc nawet OK :wink: Druga sprawa to to, czy pojawi się jakiś GTS-ik na GT200 czy też jedynymi kartami na bazie tego układu będą GTX280 i GTX260 (jako odpowiednik takiego GTS-a).... Fajnie by było gdyby pojawiła się jeszcze jedna karta na tym układzie w cenie ok 1000 PLN ze specką typu conajmniej 144SP/48TMU/768MB/24ROPy.... Czyli cosik ala GF8800GT :).... Ciekaw jestem też czy w samej architekturze zaszły jakieś znaczace usprawnienia (np. czy została zwiększona wydajność i efektywność jednostek SP w stosunku 1:1 do tych znanych z G8x/9x).... Patrząc jednak na prawdopodobne wyniki wydajności ( te ponad 13k pkt w Vantage`u) można domniemywać że jednak tak, bowiem nigdy nie było tak, że jakiś układ daje ponad 100% wzrostu wydajności w porównaniu do poprzedników przy procentowo niższym "wzroście" specyfikacji. (240SP vs 128SP, 32ROPy vs 24ROPy, 512-bit vs 384-bit).... Mam nadzieję że jeszcze w tym roku NVIDIA przejdzie z GT200 na wymiar 55nm :wink:
-
Stwierdzenie o tyle słuszne co nie trafne.... Słuszne dlatego że zapewne cena karty z 512-bitową szyną byłaby wyraźnie wyższa niż tej z 256-bit a nie trafne dlatego, ponieważ wcale nie jest tak że taka szyna nie jest kartom do szczęścia potrzebna.... Owszem, jeśli układ jest poprostu wyraźnie za słaby żeby choć w niewielkiej części skorzystać z jej dobrodziejstw do jak najbardziej - taka szyna jest zbedna.... W tym przypadku doskonałym przykładem jest właśnie r600, którego moc jest o wiele za słaba by 512-bit szyna przyniosła zauważalne korzyści (świadczy o tym porownanie wydajnosci r670 vs r600).... W przypadku jednak, gdyby układ dysponował conajmniej wydajnością na poziomie 2X G80, 512-bit moze być tutaj atutem niezaprzeczalnym, szczególnie w dzisiejszych czasach gdzie powoli, powoli ale "do głosu" zaczynają dochodzić rozdziałki HD (ceny chocby 22-calowców są bardzo atrakcyjne) a tutaj 256-bit to zdecydowanie za mało.... No chyba ze zastosuje się GDDR5 jednak te z początku z pewnością będa znacznie droższe od , starych ale ciągle będących na topie trójek.... Co więcej 512-bit to (przynajmniej w przypadku NVIDII) 32 ROPy, które dodatkowo pozytywnie wpłyną na wydajnośc w wysokich rozdziałkach.... Ciekaw jestem czy mżna zaryzykowac stwierdzenie, ze w wielu sytuacjach otrzymamy AA, bez praktycznie spadku wydajności (lub naprawde minimalny spadek) biorąc pod uwagę ze architektura G8x/G9x już teraz przy dwa razy węzszej szynie (czy 384-bit dla G80) radzi sobie w tych trybach wyśmienicie.... :wink: Tak więc 512-bit jak najbardziej jednak jej zastosowanie MUSI być w pełni uzasadnione odpowiedznią moca GPU.... :) Co do kotletów NVIDII to niestety nie wypada się nie zgodzić.... Najgorsze jest jednak to, że te kotlety w zupełności wystarczają na to co prezentuje w ostatnich latach ATI.... Dlatego też nie nie ma się co dziwić takimu postępowaniu NVIDII, gdyż tanim kosztem przy stosunkowo niewielkim nakładzie pracy nadal bezsprzecznie dominują na rynku praktycznie w kazdym segmencie.... Tym samym mając na dzień dzisiejszy niezagrożoną pozycję mogą dużo więcej czasu, w spokoju, poświęcić kolejnemu układowi, mającemu być tzw. next-genem.... Taki stan rzeczy może świadczyć o genialności obecnej architektury NVIDII jak i o nieporadności ATI - a może o jednym i o drugim.... Do czego zmierzam? Pisząc że nic w tym dziwnego chciałem przypomniec postępowanie ATI, w czasach, kiedy to NVIDIA była na kolanach, czyli lata 2002-2004 (do momentu premiery NV40).... Cóż nam serwowało ATI?? r300, r350, r360?? Kolejno Radek 9700, 9800Pro, 9800Xt będący czymś pokroju dzisiejszej GF8800Ultry.... Po co mieli coś kombinowac skoro NVIDIA nie była poprostu w stanie nic wydac opartego na danej architekturze, a wiadomo że wdrożenie do produkcji nowego projektu trwa trochę dłużej.... Tak samo też było z AMD w czasach Athlonów vs PIII i wczesnych wersjach P4, kiedy to AMD dokonywąło minimalnych ulepszeń w kolejnych wersjach Athlonów od Thunderbirda, Palomino, Thoroughbreda po Bartona.... To w zupełnosci wystarczalo na wszelkie odmiany PIII i P4 i pozwalało na w miarę spokojną pracę nad bardzo udanym A64.... Tak więc nie ma co psioczyć na NVIDIĘ bowiem zachowuje się tak jakby zachowała się zdecydowana większośc firm mających tak silną pozycję na danym rynku.... Że teraz jest to NVIDIA?? OK, ale kiedyś było ATI, AMD, Intel.... Pozatym jak narazie nawet te kotlety pod postacią GF8800GT/GTS czy serii dziewiątek i, co istotne, w dalszym ciągu karty na G80, pozwalają na grę z bardzo wysokimi detalami w praktycznie każdej grze i to w wysokich rozdzialkach z włączonymi wszelimi bajerami jeśli chodzi o detale.... :) Co do "tematowych" Radków HD48xx to oby wszyły w miarę szybko i prezentowały się dobrze, tak zeby mogły nawiązać conajmniej równą alę z tymi kotletami NVIDII a lepiej by było jakby były od nich wydajniejsze :)
-
Dokładnie :wink: NVIDIA też kiedyś twierdziła że wydajność FX-ów w DX9 to tylko kwestia sterów :lol2: Co oczywiście nie oznacza że w Rv770 nadal będą takie problemy z AA jak w serii r6xx ale.... Co do nowych Radków to mam nadzieję ze to nieprawda i że jednak ukazą się na Computexie :sad:
-
Heh ja powiem tak - ostra konkurencja to byłaby wtedy jakby obie firmy posiadały produkt o mniej wiecej podobnej wydajnosci.... :wink: Co do procesu technologicznego to przecież ja nie pisałem ze on nic nie znaczy i zdaje sobie sprawę przecież że im mniejszy proces to z reguły lepiej dla układu itp. Mnie chodziło tylko o to że proces technologiczny to nie wszystko a czytając Twojego poprzedniego posta, można dojść do wniosku że te 55nm to jakiś potężny atut w ręku ATI a to jest w dużej mierze nieprawda.... Dlatego podałem przykłady ukladów produkowanych w tym "gorszym" procesie (90nm G80 vs 80nm r600 czy 65nm G92/G94 vs 55nm Rv670), które nie tylko nie były gorsze, bardziej prądożerne (jeśli już to niewiele) i droższe od konkurentów ale wręcz przeciwnie - były/są znacznie wydajniejsze i konkurencyjne cenowo (a nawet zdecydowanie bardziej atrakcyjne).... Tak więc jak widac nie ma reguły na to ze jak dany producent stosuje bardziej zaawansowany proces technologiczny to od razu mozna mówić że ma jakąś przewagę a konkurent stoi na straconej pozycji.... :wink: Najistotniejsza bowiem sprawą jest architektura/wydajność układu bo co komu po tym ze r600 był w 80nm skoro oferował znacznie słabszą wydajność?? To samo GF8800GT vs HD3870.... Jak wydajesz włabszą grafę to nawet jakby była w 45nm to niewiele by jej pomogło....
-
Ehh a może tak lepiej zakończyć te teorię spiskową odnośnie słabszej wydajności ATI w grach? Za niedługo bowiem dojdziemy do wniosku że NVIDIA przekupuje wszystko i wszystkich i to ona jest winna wszelkich niepowodzeń AMD, ATI i kogo tam jeszcze :rolleyes: Bez przesady - każdy może sobie to nazywac jak chce ale to jest poniekąd przykład na to ze firma dba o swoich klientów którzy kupując GF-a moga miec zdecydowanie większa gwarancję na to że konkretna gra bedzie w pełni wykorzystywac dany sprzet.... Co do GF8800GTX vs GF8800Ultra to zauważ że kolega pisał to w tym sensie, ze "nieważne czy bedzie kosztowac 3 tys czy 5 tys" oznacza sytuacje kiedy miedzy droższą a tanszą karta nie bedzie 10fps roznicy tylko ze 30-40 fps w jakiś ustawieniach a nie tak jak Ty podałes przykład z GF8800GTX i Ultrą gdzie ewidentnie widac ze Ultra jest zupełnie nieopłacalna i nigdy zresztą nie była.... To właśnie znaczy słowo ADEKWATNE.... A gdyby była roznica w wydajnosci na poziomie 10fps to nie bój - NVIDIA nie jest aż taka glupia zeby utrzymywac roznice cenową na poziomie 60-70%.... Przykład?? GF8800GT vs Radki HD38xx.... Radki mają dużo mniejsze rdzenie ten super nowszy proces i jakoś nie widac zeby były znaczaco tansze albo w ogole tansze od GF-ów.... Dlatego tez to ze GT200 bedzie w "gorszym" procesie 65nm nic nie znaczy.... G80 tez był w "gorszym" 90nm procesie niż r600 i jakoś w niczym nie przeszkodziło mu w pozostaniu najdłuzej królującym układem w historii (jeśli chodzi o High-end) :wink:
-
Jepp przeciez pisałem ze 3X GF8800Ultra to ma być w Crysisie a to przecież nie3 jest nic nadzwyczajnego i niemożliwego jeśli popatrzymy na przewage GF8800GTX nad GF7900GTX.... Pozatym niewiem co masz na myśli pisząc o " od niedawna istniejących portalach dalekowschodnich" bo tak się składa ze to głównie stamtąd wyciekają jako pierwsze najbardziej wiarygodne informacje :wink: Nie twierdzę że to co pisze to 100% prawda ale napewnoe nie mozna powiedziec od razu że to ściema.... PS. VR-Zone chyba nie nalezy do portali które istnieją od niedawna?? :)
-
Niestety nie :rolleyes: Nie mówiłem o Radku tylko o GT200, więc niewiem dlaczego dajesz przykład Radeona :wink: Pozatym odnosiłem się do GF8800Ultra bo o niej byla mowa a nie do GF9800GX2 :) PS. Jeśli chodzi o Radeony to najnowsze info mówi że wersja Rv770Pro ma wyjść już w Maju (GDDR3) a wersja XT w Lipcu z powodu niedostatecznych ilości GDDR5 jak narazie....
-
Hehe nie no aż taki młody to nie jestem :wink: A teraz na poważnie.... Herezje powiadasz?? Dlaczego tak sadzisz?? Bo napisałem że ponoć GF9900GTX w Crysisie ma wydajność 3xGF8800Ultra?? Przeciez napisałem "W CRYSISIE" a nie w każdej sytuacji i zawsze. Popatrz sobie na roznice w niektorych grach GF8800GTX i GF7900GTX gdzie mozna znaleźć tryby że GF8800GTX jest szybszy od poprzednika o 2,5-3 razy co przeciez nie oznacza że ZAWSZE te 200% się utrzymuje.... :) w innych sytuacjach (niższe rozdziałki czyli sytuacje gdzie hamuje już procek) może to być 60, 70, 80% wyższa wydajność.... Ja nie twierdze że to co podałem to na 100% prawda tylko podałem to info dlatego, ze zarówno w przypadku G80 jak i G92 i reszty układów NVIDII (G94, G84) informacje jakie pojawiały się na tamtym forum potwierdzały się w zdecydowanej większości przypadków.... Dlatego uważam że informacje tam się pojawiające (szczeólnie przed modów) mozna uznać za rzetelne. Moze w tym przypadku będzie tak samo? Tutaj choćby pierwsze wyniki G80 w 3D Marku z tego forum (oczywiście jak się ukazały to tez nikt nie wierzył) http://we.pcinlife.com/thread-630584-1-1.html .... tutaj zaś info o G92 - warto zauważyć że to info ukazało się na ok 3 miechy przed premierą G92.... http://translate.google.com/translate?u=ht...en&ie=UTF-8 Pozdro. :wink:
-
Hmm a w przypadku 8800 vs 9800 numerek podniesiony o 1000 a wydajnośc na tym samym poziomie :lol2: Ale tak na serio to pisze to czego się dowiedziałem. GT200 ma być GF9900GTX a nie zadną serią 10-tą.... Co do wydajności to ma być 3x GF8800Ultra ale w Crysisie.... Co do innych gier nic o tym nie pisał.... Co więcej 512-bit, 32 ROPy i z pewnością znacznie zwiększona moc SP moga spokojnie dac taką przewagę....
-
A to NVIDIA przyspiesza GT200?? :blink: Skąd to info?? Na jednym azjatyckim forum można natknać się na ciekawe info jakoby GF9900GTX w SLI osiągał w Crysisie ok 25-30 fps w rozdziałce 2560x1600 z detalami na Very High i AAx4.... Jedna karta ma ponoć miec wydajność 3x Geforce 8800Ultra w Crysisie.... :wink: Jeśli to prawda (a są na to duże szanse) a różnica w wydajności w innych grach wyglądac będzie podobnie (conajmniej 2X GF8800Ultra) to będzie miazga.... :wink: Co do Radków to przydaloby się żeby dokopały "kotletom" NVIDII w postaci G92.... Ten segment potrzebuje wzrostu wydajności :rolleyes:
-
A wiadomo kiedy E7300 mają trafić na rynek?? Niedawno popjawił się E7200 a już pełno ES-ów E7300 :blink:
-
Koledze chodziło zapewne o to, że w jego przypadku będzie to pierwszy w historii highendowy Radeon a nie że w ogóle.... :rolleyes: