
Domell
Stały użytkownik-
Postów
736 -
Dołączył
-
Ostatnia wizyta
Treść opublikowana przez Domell
-
Czyżby znów premiera r600 miała się opóźnić?? :mur: http://www.theinquirer.net/default.aspx?article=36673
-
http://level505.com/2006/12/30/the-full-ati-r600-test/ Teścik r600 :lol: :lol: :lol: :lol:
-
Dlatego też C2D E4300 będzie opłacalnym zakupem dopiero w okresie wakacji gdy jego cena będzie oscylować w okolicach 450 PLN.
-
http://www.amdzone.com/modules.php?op=modl...=279&page=1 Benchmarki R6: Las Vegas :wink:
-
Ehh.... Czyli sytuacja jak z Radkami x1800 kiedy ze 2 miechy po premierze nie było do niej porządnych sterów :angry:
-
Z G80 było podobnie.... na około miesiąc przed premierą na sieci można było znaleźć info dotyczące wyników w 3D marku 06 które jak się okazało były prawdziwe tzn. pokrywały się z wynikami po premierze.... Jeśli chodzi o wydajność to tak jak napisal Majdan, to ze r600 wychodzi pozniej nie oznacza z urzedu ze bedzie wydajniejszy (choc mysle ze akurat bedzie nieco szybszy).
-
Post nr 1163 :wink: http://www.beyond3d.com/forum/showthread.p...676&page=47 Żadnego skrinu rzecz jasna spodziewać się nie można (zresztą sytuacja jest identyczna jak w przypadku G80 i przedpremierowych plotek na jego temat). Pozdro.
-
A no dlatego że z z tego co wiem to DX10.1 ma się pojawić dopiero na początku 2008 roku więc jest mało prawdopodobne (choc nie niemożliwe) żeby już r600 wspierał DX10.1.... Nie mówiąc już o tym że gry obsługujace DX10.1 wyjdą pewnie jeszcze rok po premierze samego DX-a czyli pewnie w okolicach 2009 a w najlepszym przypadku pod koniec 2008 a wtedy na rynku będzie już zapewne G90 i r700.... Co do samego r600 to podobno osiąga on około 10800 pkt w 3D Marku 06 na najszybszym obecnie procku AMD B-)
-
.... o ile z tym DX10.1 i jego obsługi przez r600 to prawda co akurat wydaje mi się mało prawdopodobne :wink:
-
No ale z tego co widac w sigu to ona ma jednojajowca a jak wiadomo w 3DM 06 2 jajka daja bardzo dużo.... Jednak wynik tak czy siak jest o wiele za słaby.... Tak mi się bynajmniej wydaje bowiem ja na swoim lekko kreconym Galaxy 7900GS i A643500+@2500mhz mam 4500 pkt....
-
Możesz podać konkretne przykłady np. tego dlaczego to przyszłość GF8800 nie rysuje się zbyt różowo?? Bo gadać ot tak sobie to każdy może - podaj jakieś argumenty :) A co do tego czy ATI miało częścirej lepiej dopracowane architektury to Twoja wypowiedź jednoznacznie wskazuje na to że dla Ciebie nie liczą się czasy kiedy to Riva TNT2, GF256 i GF2GTS rządziły przez długie lata, to że seria GF4 (a szczególnie GF4 Ti 4200) była swego czasu najpopularniejszą kartą.... Potem rzecz jasna nadeszły serie GF6 i 7 które pod względem sprzedaży biły komnkurencyjne Radki.... A wracając do tematu to uruchamiał ktoś Splinter Cella: Double Agent na tych nowych sterach 97.28?? Na Forum NvNews koleś twierdzi że uruchomił tę grę....
-
http://www.proline.pl/shop.php?prodid=MSI+8800GTX+768+384 Looknijcie.... GF8800GTX już za 2150 PLN :wink:
-
Ot weź choćby pod uwagę Core 2 Duo i liczbę jego tranzystorów (chyba) 291mln i takiego G80 i jego 681 mln czy zapowiadanego r600 który (wbrew wcześniejszym informacjom o nieco ponad 500 mln) ma posiadać ponad 700 mln tranzystorów. Od razu widac że GPu są obecnie potężniejszymi i dużo bardziej złożonymi układami od CPU....
-
Bo to nie jest o tak sobie przejśc z 80nm na 65nm.... Pozatym w przypadku GPu sytuacja jest zupełnie inna ponieważ GPu są o wiele bardziej skomplikowanymi układami niż CPU i to że AMD już produkuje procki w 65nm wcale nie oznacza ze moze rozpocząc produkcję r600 w tym procesie.
-
Ejj no.... Zarty na bok!! :lol:
-
http://66.249.93.104/translate_c?hl=en&.../language_tools Karta GALAXY z ZALMANEM :wink: Swoją drogą to świetnie się kręci :D Pozdro.
-
R600 napewno nie będzie wykonany w procesie 65nm.... Poprostu jest on zbyt niedopracowany żeby produkowac w nim już teraz tak skomplikowane układy graficzne.... Jesli chodzi o tę szynę pamieci to kilka,-kilkanascie dni temu na jednym z zagranicznych forum PCINLIFE pojawiła się informacja jakoby r600 miał dysponowac nadal 256-bitową szyną pamięci gdyż wg podawanych tam info zastosowanie 512-bitowej niosło by za sobą zbyt duże koszty przez co karta byłaby bardzo droga.... Niewiem na ile jest to informacja prawdziwa jednak jak dotad wszelkie "przecieki" które wychodziły z tego forum np. dotyczące G80 okazały się być później potwierdzone tak że.... Pozdro. :wink:
-
Spokojnie.... Właśnie to jest nieprawdopodobne żeby upchać 681 mln tranzystorów w procesie 90nm przy tak niewielkim (w porównaniu do r580 i jego 380 mln tranzystorów) wzroście poboru mocy.... Pozatym mimo 90nm procesu karta potrafi osiągnąc częstotliwości nawet około 650 mhz na rdzeniu co jest wynikiem wprost niebywałym.... Mozna się zatem spodziewać że G80 wytworzony w procesie 80nm (a taki będzie) będzie w stanie osiągnąc częstotliwośc około 700 mhz na rdzeniu.... taka tez zapewne będzie odpowiedz NV na r600 (gdyby okazał się wydajniejszy).... Wiadomo bowiem ze w lutym wyjdzie kolejny uklad oparty o G8x (moze właśnie będzie to 80-nanometrowy G80 z wyższymi zegarami ~700 mhz i GDDR4??)....
-
Qrcze- szkoda :cry: No ale trudno.... Tak czy siak czekam na reckę :)
-
No to super :) Bo właśnie o Gothica 3 chodzi mi najbardziej :wink:
-
Sulaco to kiedy kupujesz GF8800GTX?? :D EDIT: focus będzie w Twojej recenzji Gothic 3 i Company of Heroes?? Kolejna recka http://www.firingsquad.com/hardware/nvidia...iew/default.asp Jednym słowem grafa MIAŻDŻY!!!!!!!!!!!!!!!
-
Ja powiem tak.... Pomijając kwestię wydajności (skądinąd znakomitej) to jestem pełen podziwu dla inżynierów NVIDII za osiągnięcie związane z poborem prądu.... Jak dla mnie to jest to mistrzostwo świata bowiem układ jest produkowany w technologii 90nm czyli takiej samej co Radek x1950xtx ale mając o 80% więcej tranzystorów pobiera zaledwie kilkanaście W więcej....
-
I jeszcze jeden teścik ale samego GF8800GTS http://translate.google.com/translate?u=ht...Flanguage_tools
-
"NVIDIA flew a bunch of engineers all over the world to quickly fix the faulty value resistor on its 8800 GTX cards. It is a small flaw in the reference design. The story is that someone added a weaker resistor and I am sure that Jensen already spanked his/her but for it. All Nvidia and its channel partners needed to do is to change the resistor with a stronger one, and that is what they are doing now. All the cards in retail should be bug free, at least Nvidia is doing its best to recall all the cards out, fix the issue and send them back to the stores. So far, representatives from Point of View, EVGA and Gainward confirmed that their cards are bug free. They managed to fix the problem in house or Nvidia did it for them, either way all the 8800 GTX with their logos are fine. The first batch of fixed cards went out today and some stores will have them tomorrow for the European launch. Most other Nvidia partners will have the bug-free cards by tomorrow but, for some, it's a race against time." http://theinquirer.net/default.aspx?article=35576 Z tego wynika że karty POV, EVGA i Gainwarda są sprawne.... :blink: