Skocz do zawartości

Rekomendowane odpowiedzi

Wiem że ja się nie znam, ale jeśli dobrze kumam to studiuję elektronikę. Tak więc powala mnie pomysłowość z 2 MOLEXami, czyżby NV przewidywała dorzucenie gratisowo oddzielnego zasilacza do karty, który podłączamy niezależnie do sieci? Bo nie widzę sensu dokłądania drugiego złącza jak i tak wszystko leci tymi samymi kabelkami od zasilacza :lol:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jak dla mnie to jest ogolnie pic na wode to zdjecie. Nie ma oficjalnego potwierdzenia, ze fotka jest autentyczna, wiec czym sie tu podniecac...? Zobaczymy....

Ta fota jest prawdziwa - potwierdzil to naczelny pewnej stronki, ktory widzial ta karte na zywca podczas regorocznego Cebitu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A ja się zakładam o 38 butelek po piwie, które u mnie w szafie stoja, że Ati skopie po raz kolejny tyłek nV i to jeszcze bardziej niż poprzednio.

Btw - od kiedy to wieksza płytka oznacza , że jest lepsza?Ktoś widzę się przymierza jednak do smażenia jajek w kompie :PP.

Ja dożuce jeszcze moje butelki :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wiem że ja się nie znam, ale jeśli dobrze kumam to studiuję elektronikę. Tak więc powala mnie pomysłowość z 2 MOLEXami, czyżby NV przewidywała dorzucenie gratisowo oddzielnego zasilacza do karty, który podłączamy niezależnie do sieci? Bo nie widzę sensu dokłądania drugiego złącza jak i tak wszystko leci tymi samymi kabelkami od zasilacza :lol:

 

w/g mnie a nie studiuje elektroniki dwa molexy sa po to by rozdzielic duze natezenie pradu jakie moglo by plynać przez jedno gniazdo i uhcronic sciezki na PCB przed nagrzaniem sie i wypaleniem

 

jak rowniez bedą to dwa osobne obwody zasilajace uklady logiczne karty a nie jeden,

 

mozna zapytac no dobra ale dlaczego z jednego molexa nie mozna wyprowadzic n liczbe sciezek? moze dlatego jest to spowodowane ograniczeniami konstrukcyjnymi tj. bliskossc wzgledem wiekszych sciezek pradowych, rozmieszczenie stabilizatorow, kondensatorow itd.

 

ja to tak rozumuje

pozdro

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To ja Ci to wyjaśnie. :D

 

Jeden molex jest do zasilania GPU z zasiłki z budy. Drugi molex jest do zasilamia pamięci i do niego dostajesz oryginalny zasilacz od nVidii! :wink: :lol:

 

A tak poważnie to możesz mieć racje. Ograniczenia PCB i ścieżek -->> konieczność zastosowania drugiego molexa! Ehh. A miniaturyzacja układów miała pociągnąć obniżenie poboru prądu! :?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Może jest coś w tym logiki co kolega napisał, ale rozdzielenie obwodów może się odbyć w dowolnym momencie. Jeżeli chodzi o przepalenie to wystarczy zwiększyć szerokość ścieżek co może polepszyć tylko sytuację. Jeśli kolega wpadnie na pomysł że widać nie ma miejsca dlatego tak zrobili to podpowiem że karty graficzne jak i inne rzeczy są zwykle robione jako wielowarstwowe PCB. Na każdym PCB znajduje się conajmniej jedna warstwa na której mamy ogromnych rozmiarów mase którą można zawsze pomniejszyć. Między warstwami są robione otwory metalizowane które łączą je między sobą. tak więc defakto starczy jeden molex. Wszysstkie ścieżki są "prądowe" tak na marginesie bo innych nie ma, no chyba że ktoś widział światłowodowe łącza lub podprzestrzenne między elementami na karcie :wink: W najgorszym przypadku mogą dużą rolę odgrywać zjawiska falowe ale to jest inna bajka. Dodatkowo aby zmniejszyć koszta produkcji karty raczej się minimalizuje ilość elementów, obniża to koszty produkcji jak i koszta elementów (zawsze jest tańszy większy jeden niż mniejsze 2). No dobra nie chce mi się dlaej pisać na ten temat. Generalnie uważam że nVidia ma szanse teraz zrobić coś dobrego bo ten FX nijak się nie miał do renomy którą zdobyła firma poprzez wcześniejsze modele. Ma szanse bo dała ciała i logika nakazuje zrobienie czegoś wyjątkowo dobrego. Mam nadzieję że tak się stanie, bo im krwawsze walki miezy układami kolejnych firm, tym mniejsza ich cena żeby skłonić do zakupu.

 

Wpadłem na pomysł właśnie w tej chwili, idąc dalej tokiem rozumowania który zaproponował kolega, możemy się spodziewać niedługo kłębka molexów do zasilania każdego elementu na karcie :)

 

P.S.

Te żarty nie są bynajmniej do tego aby w jakiś sposób ci umniejszyć, ale jest to ciekawy punkt widzenia :) i nie ukrywam że chętnie bym się dowiedział dlaczego takie coś zrobiono

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

ja nie wiem wy chyba wszyscy macie jakas manie-uprzedzenie do nv ze jest grzejnikiem

co wam to przeszkadza te 170mln tranzystorow czyms trzeba dovoltowac do tego jeszcze pamieci dochadza no i zbiera troche, mi to w ogole nie przeszkadza wole 2 molexy pod grafe podpiac niz wykozystac je na jakies glupie swiecidełka;]]

dla mnie karta i tak juz jest do przodu ze wzglegu na ps3 ktorego ati nie ma - juz widze tlumaczenia ati ze dopracowali ps2 do granic mozliwosci i bla bla bla

powinni testy w doomie 3 zrobic jakos - wtedy zobaczymy co lepsze;]]

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

w/g mnie a nie studiuje elektroniki dwa molexy sa po to by rozdzielic duze natezenie pradu jakie moglo by plynać przez jedno gniazdo i uhcronic sciezki na PCB przed nagrzaniem sie i wypaleniem 

 

jak rowniez bedą to dwa osobne obwody zasilajace uklady logiczne karty a nie jeden, 

 

mozna zapytac no dobra ale dlaczego z jednego molexa nie mozna wyprowadzic n liczbe sciezek?  moze dlatego jest to spowodowane ograniczeniami konstrukcyjnymi tj. bliskossc wzgledem wiekszych sciezek pradowych, rozmieszczenie stabilizatorow, kondensatorow itd. 

 

ja to tak rozumuje 

pozdro

LOL jakie niby tam gigantyczne prądy płynał ??

na przewodzie zasilaczowym(molex) loozniutko czajnik elektryczny moze chodzic bez problemu a on pobiera ok 2000W , wiec jaki problem z głupią karta ??? pobierajaca moze 60W

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

1. "Do chłodzenia układu wystarczy aluminiowy radiator - nie potrzeba stosować radiatorów miedzianych. Karty będą dzięki temu znacznie lżejsze od GeForce FX 5800 Ultra, 5900 Ultra czy 5950 Ultra. NVIDIA dostałą nauczkę przy okazji GeForce FX 5800 Ultra i ma teraz świadomość, że głośne systemy chłodzenia nie są tym, czego oczekują konsumenci. NV40 będzie chłodzony przez bardzo cichy wiatraczek." (okaże się :])

2. "Karty NV40 będą bardzo prądożerne i wymagać będą aż dwóch gniazdek zasilających - podobnie, jak to ma miejsce w przypadku Volari Duo V8. Zapytaliśmy, czy podwójne gniazdka zasilania znajdą się na kartach w wersji finalnej, czy może obecne są tylko na prototypie karty. Otrzymaliśmy odpowiedź, że NV40 konsumować będzie dużo prądu i wymagać będzie dwóch gniazd zasilających. "Jeśli kogoś stać na NV40, to na pewno będzie go też stać na porządną obudowę i silny zasilacz" - dodał nasz rozmówca, pracownik NVIDII." (ta mentalność mnie dobija)

3. "Układ NV40 zbudowany będzie z ponad 200 milionów tranzystorów (nie podano nam dokładnej liczby) i udostępniać będzie sprzętowe jednostki Pixel Shader 3.0 oraz Vertex Shader 3.0. Dla porównania, nadchodzące układy graficzne ATI pozbawione będą jednostek PS 3.0 i VS 3.0." (realna wydajność to się okaże w grach - i tak przeważnie jest tak, że pierwsza generacja kart obsługująca nowe efekty; tutaj PS 3.0 i VS 3.0 nie poradzi sobie dobrze z grami wykorzystującymi to, ale za to będzie można grać w gry dx9 z aa i anizo :>)

4."Ponoć gdy chip zostanie oficjalnie zaprezentowany, NVIDIA opublikuje liczbę potoków renderujących. Choć nie zdradzono nam jej dokładnej liczby, to ma być ich więcej niż osiem. Domyślać się można, że będzie ich szesnaście. Natomiast w niektórych przypadkach NV40 będzie potrafił przetwarzać nawet 32 piksele na cykl zegara." (im więcej tym lepiej :))

5. "Przedstawiciele NVIDII twierdzą, że NV40 zmiażdży nie tylko NV38 (GeForce FX 5950 Ultra), od którego ma być szybszy w niektórych przypadkach nawet do ośmiu razy, ale także nadchodzące układy ATI. Wiadomo, że obie firmy straszą się teraz wzajemnie. Która wygra bitwę, przekonamy się dopiero wtedy, gdy nowe układy graficzne ukażą się na rynku."

 

Pożyjemy zobaczymy!

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Mi się karta generalnie podoba, a specyfikacja jest rewelacyjna. Z niecierpliwością czekam na wyniki jej działania. Narazie się nie zabieram za zmianę karty której jeszcze nie mam (jutro ma dopiero przyjść) ale jeśli konkurencja wypadnie gożej to nie ma mowy żebym obstawał przy obecnym producencie. Grafika to nie partia polityczna, nikt cie nie przegoni za zmianę producenta. Choć i w polityce jak widać zachodzą zmiany, tam gdzie więcej dadzą kasy tam się stare gemby pojawiają :? więc czym tu się podniecać :) kupię to co lepsze za te same pieniądze:)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

dla mnie karta i tak juz jest do przodu ze wzglegu na ps3 ktorego ati nie ma - juz widze tlumaczenia ati ze dopracowali ps2 do granic mozliwosci i bla bla bla

FX ma PS 2.0+ a Radion tylko 2.0, a co z tego wyniklo widac dzis. Same efektyto nie wszystko , trza to jeszcze jakos polaczyc.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tak sobie zaczełem szukać informacji o NV40 i na pewnej stronie (chyba benchmark.pl) znalazłem wyniki NV40 w 3DMarku 2001. Mają one sięgać 37 tysięcy.8O Nie bujam. Te wyniki są podane przez jakiegoś gościa z Nvidi który testował przedpremierową wersję tej karty. Boję się troche o Nvidie że się zmęczy jak będzie musiała sprzątać po nowym Radku. :twisted:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tak sobie zaczełem szukać informacji o NV40 i na pewnej stronie (chyba benchmark.pl) znalazłem wyniki NV40 w 3DMarku 2001. Mają one sięgać 37 tysięcy.8O Nie bujam. Te wyniki są podane przez jakiegoś gościa z Nvidi który testował przedpremierową wersję tej karty. Boję się troche o Nvidie że się zmęczy jak będzie musiała sprzątać po nowym Radku. :twisted:

http://forum.purepc.pl/viewtopic.php?t=66297

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

w/g mnie a nie studiuje elektroniki dwa molexy sa po to by rozdzielic duze natezenie pradu jakie moglo by plynać przez jedno gniazdo i uhcronic sciezki na PCB przed nagrzaniem sie i wypaleniem 

 

jak rowniez bedą to dwa osobne obwody zasilajace uklady logiczne karty a nie jeden, 

 

mozna zapytac no dobra ale dlaczego z jednego molexa nie mozna wyprowadzic n liczbe sciezek?  moze dlatego jest to spowodowane ograniczeniami konstrukcyjnymi tj. bliskossc wzgledem wiekszych sciezek pradowych, rozmieszczenie stabilizatorow, kondensatorow itd. 

 

ja to tak rozumuje 

pozdro

LOL jakie niby tam gigantyczne prądy płynał ??

na przewodzie zasilaczowym(molex) loozniutko czajnik elektryczny moze chodzic bez problemu a on pobiera ok 2000W , wiec jaki problem z głupią karta ??? pobierajaca moze 60W

nie miałem na mysli linek od zasilacza tylko śćieżek na pcb.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Kiedy wprowadzano 9700PRO z PS2.0 tez nie bylo produktow go oblugujacych,  zawsze jest tak, ze najpierw sprzet pozniej oprogramowanie

tak...

tylko ze nV niemoze sobie jeszcze poradzic z PS2.0 a wprowadza juz PS3.0 :roll: :?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

moze i ps3.0 nie jest potrzebny ale tlumaczenie ATI jest kompletnie bez sensu. Kiedy wprowadzano 9700PRO z PS2.0 tez nie bylo produktow go oblugujacych,  zawsze jest tak, ze najpierw sprzet pozniej oprogramowanie

No właśnie ATI wprowadziło PS2.0 a do tej pory mało jest gier które go wykorzystują(na szczęście ich liczba szybko rośnie :wink: ) a to w ok 2 lata po premierze :!: :D Jeszcze dobrze nie są wykorzystywane możliwości DX 9.0 a tutaj... Może ten "kop" od nVidii (w postaci PS 3.0) zmobilizuje twórców gier do tworzenia aplikacji pod PS 2.0?

Czy może widząc wydajność FX-ów (nie piszę tego z ironią,złośliwością itd.) będą się skupiać na 3.0 bo przy 2.0 gracze będą mięli

"mniejszą radość" będącej przyczyną lagów :evil: A dla ok 50% (powiedzmy)posiadaczy kompów-z kartami od ATI- nie opłaci się tworzyć pod DX 9.0?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

nie miałem na mysli linek od zasilacza tylko śćieżek na pcb.

ale zarówno przy 1 molexie jak i 2 mozna od gniazda na karce poprowadzic dowolna liczbe sciezek np od - i + moga isc cienkie (male) 2sciezki jak i 2 duze lub 5 malych i na tosamo wyjdzie lub 2 bydlackie , nie wogole nie kumam pomyslu na 2 molexy

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie wiem jak będzie, narazie do jakichkolwiek informacji podchodzę sceptycznie, ale szczerze mówiąc jeśli NV wypuści dobre karty, to z chęcią zakupie ich produkt, choćby tak dla zmiany...  8)

Dokładnie. Wcześniej miałem GF2MX. Potem kupiłem 9500Pro. Następnie pojawiła się nVidia 5900XT. Licząc, że jest w dobrej cenie kupiłem ją. Ale okazała się za słaba dla tego powróciłem spowrotem do ATI.

 

I tak jak kucyk mówi. Grafe kupujemy dla wydajności a nie pudełka czy z zamiłowania do danej fagi! :wink: Jeśli tym razem będzie lepsza nVidia chętnie ją kupię! 8)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Podobno nvidia oficjalnie powiedziala za NV40 ma 16 potokow normlanie i moze do 32 miec emulujac. (modlmy sie z nvidia ze maja racje :mrgreen::lol:)

A ja czytałem ,że wręcz przeciwnie. Tak naprawde(podobno) ma 8 a jakimś trikiem uzyskuje 16. ;)

Poczekamy zobaczymy...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tak sobie czytam te posty i nie rozumiem 2 rzeczy:

1)Tych podwójnych molexów.

2)Podniecania się PS 3,0

 

Co do punktu 1 to sie nie będę wypowiadał, bo nie ma po co strzelać.

Co do punktu 2 - to w sumie pytanie do fanów nV - co za różnica, jaki numerek ma PS i VS, jeśli nie działa, albo działa żałośnie?Ati jakoś nie wprowadza PS 3,0, bo najwidoczniej nie uważa, żeby było konieczne, albo nie mają dopracowane i nie chcą bubli jak nV odstawiać.

 

Co do tych 16/32 i 37k w 3dsmarku - big lol x 10000

btw - kiedy te grafy wychodzą do pierwszych oficjalnych testów i kiedy będę mogł ze stołka ze śmiechu spaść?Czekam z niecierpliwościa :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach




×
×
  • Dodaj nową pozycję...