Gość delavego Opublikowano 11 Lutego 2009 Zgłoś Opublikowano 11 Lutego 2009 nVidia GeForce GTX 400 'Fermi'TEMAT ZBIORCZY KART GTX 470 & GTX 480 Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
BuMeL Opublikowano 11 Lutego 2009 Zgłoś Opublikowano 11 Lutego 2009 Wszystkie źródła na niebie,ziemi i google wskazują dokładnie te same nowinki. A biedny, niedouczony Racuch kłócił się ze mną dwa dni, że nVidia nie będzie wypuszczać kart z 512bit szyną pamięci a już szczególnie dla GDDR5 ;p gdzie taktowania i czas dostępu nadrabiałyby to krojenie. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość delavego Opublikowano 11 Lutego 2009 Zgłoś Opublikowano 11 Lutego 2009 nie ma co karta zamknie liczniki Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Racuch Opublikowano 11 Lutego 2009 Zgłoś Opublikowano 11 Lutego 2009 (edytowane) Wszystkie źródła na niebie,ziemi i google wskazują dokładnie te same nowinki. A biedny, niedouczony Racuch kłócił się ze mną dwa dni, że nVidia nie będzie wypuszczać kart z 512bit szyną pamięci a już szczególnie dla GDDR5 ;p gdzie taktowania i czas dostępu nadrabiałyby to krojenie.ić stont :wink: może i wyuszczą to coś ale nieprędko Edytowane 11 Lutego 2009 przez Racuch Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość delavego Opublikowano 11 Lutego 2009 Zgłoś Opublikowano 11 Lutego 2009 nie moze tylko napewno :P i to w tym roku :lol2: Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
lapituta Opublikowano 11 Lutego 2009 Zgłoś Opublikowano 11 Lutego 2009 (edytowane) Karta o podanych parametrach nigdy nie ujrzy światła dziennego. Dlaczego? Bo GT300 będzie chipem z dx11 w 40nm i z nową architekturą. Edytowane 11 Lutego 2009 przez lapituta Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
ajeto75 Opublikowano 11 Lutego 2009 Zgłoś Opublikowano 11 Lutego 2009 Karta o podanych parametrach nigdy nie ujrzy światła dziennego. Dlaczego? Bo GT300 będzie chipem z dx11 w 40nm i z nową architekturą.właśnie coś podobnego miałem napisać :rolleyes: po wuj przedstawiany przez Ciebie GTX350 miałby być w 55nm, jeżeli już niedługo wprowadzają 40nm :blink: Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość delavego Opublikowano 11 Lutego 2009 Zgłoś Opublikowano 11 Lutego 2009 czas pokaze Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
sideband Opublikowano 11 Lutego 2009 Zgłoś Opublikowano 11 Lutego 2009 Bo to kolejny fake , któryś z kolei. Bo GT300 będzie miał wsparcie dla dx11. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Fofox Opublikowano 11 Lutego 2009 Zgłoś Opublikowano 11 Lutego 2009 Ja gdzieś czytałem że mają odejść od rozwijania G80 i zaprezentować coś nowego. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
shooter Opublikowano 15 Lutego 2009 Zgłoś Opublikowano 15 Lutego 2009 Parametry z pierwszego posta kosmiczne. Karta zetrze na proch obecne GTX28x. Już się ślinię :P Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
BuMeL Opublikowano 24 Lutego 2009 Zgłoś Opublikowano 24 Lutego 2009 Informacja na temat nadchodzących produkcji: tutaj. Informacja na temat samego GTX350: tutaj. Swoją drogą sam czekam na pierwsze testy ;p oby nie były zbyt "naciągane" przez nVidię ;p Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
radiergummi Opublikowano 30 Września 2009 Zgłoś Opublikowano 30 Września 2009 GPU specifications This is the meat part you always want to read fist. So, here it how it goes: * 3.0 billion transistors * 40nm TSMC * 384-bit memory interface * 512 shader cores [renamed into CUDA Cores] * 32 CUDA cores per Shader Cluster * 1MB L1 cache memory [divided into 16KB Cache - Shared Memory] * 768KB L2 unified cache memory * Up to 6GB GDDR5 memory * Half Speed IEEE 754 Double Precision http://www.brightsideofnews.com/news/2009/...-6gb-gddr5.aspx Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
czolo7 Opublikowano 30 Września 2009 Zgłoś Opublikowano 30 Września 2009 LoL...wyglada jak specyfikacja calego kompa :blink: Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość 71proste Opublikowano 30 Września 2009 Zgłoś Opublikowano 30 Września 2009 (edytowane) Ja gdzieś czytałem że mają odejść od rozwijania G80 i zaprezentować coś nowego. najwyzsza pora,Nvidia moim zdaniem sie sku..ila ,zero nowych innowacji tylko odgrzewanie kotletow dlatego tez nie zdziwil bym sie wogole gdyby te @plotki@ mialy duzo wspolnego z rzeczywistoscia :D zamiast wprowadzic cos nowego prowadza walke marketingowa z ATI,na sile sklejaja karty itd... Edytowane 30 Września 2009 przez 71proste Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
OCM4n14k Opublikowano 30 Września 2009 Zgłoś Opublikowano 30 Września 2009 W ultra wysokich rozdziałkach to będzie killer z taką ilością ramu. Zapewne będzie to najszybsza karta na rynku, ale ciekawe ile będzie kosztowała :P. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Zieger69 Opublikowano 30 Września 2009 Zgłoś Opublikowano 30 Września 2009 Najwięcej na rynku :D Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
poca Opublikowano 30 Września 2009 Zgłoś Opublikowano 30 Września 2009 6GB ramu muaahahha. Pięknie to wygląda na papierze. Ciekawe jak się będzie przekładać na rzeczywistość. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
OCM4n14k Opublikowano 30 Września 2009 Zgłoś Opublikowano 30 Września 2009 W rzeczywistości to będzie tak, że żadna gra tego na monitorze FullHD nie użyje. Może w jakiś rozdziałkach z kosmosu to coś da. Graficy się pewnie w jakimś stopniu z tego ucieszą ucieszą ;]. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
radiergummi Opublikowano 30 Września 2009 Zgłoś Opublikowano 30 Września 2009 Ale dla typowych konsumentów będą wersje 1,5GB. 6GB to dla Quadro i Tesla. Niech was o to głowa nie boli. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
mak888 Opublikowano 30 Września 2009 Zgłoś Opublikowano 30 Września 2009 Do zwykłego LCD 22" - 26" wystarczy 1GB pamięci ,z większą ilością już raczej nie będzie takiego przyrostu wydajności. Bardziej to zagranie iście marketingowe :). A sam chip faktycznie wydaje się zupełnie nowym rozwiązaniem. Chociaż G80 a G200 też się różniły . Ja bym raczej upatrywał że G300 będzie kolejną ewolucją niż rewolucją. Dodadzą kilka nowinek pewnie . Ale rewolucja na miarę G80 to raczje nie będzie. No a parametry G300 powalają, ale wszystko rozbiega się o jedno , jaka bedzie tego cena ??. Jesli cena będzie konkurencyjna to ATI będzie miała problem. Jesli wyskoczą ceną z kosmosu to będzie tak jak z serią GTX 2xx zanim ceny spadły do akceptowango poziomu. Swoją drogą trzeba przyznać że marketing ATI niezle zadziałał bo ludzie woleli kupować np. HD 4890 niż GTX 275 który po OC był wydajniejszy niż 4890 po OC. No cóż i tak bywa. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Pietia(lania) Opublikowano 30 Września 2009 Zgłoś Opublikowano 30 Września 2009 Do zwykłego LCD 22" - 26" wystarczy 1GB pamięci ,z większą ilością już raczej nie będzie takiego przyrostu wydajności. Bardziej to zagranie iście marketingowe :). A sam chip faktycznie wydaje się zupełnie nowym rozwiązaniem. Chociaż G80 a G200 też się różniły . Ja bym raczej upatrywał że G300 będzie kolejną ewolucją niż rewolucją. Dodadzą kilka nowinek pewnie . Ale rewolucja na miarę G80 to raczje nie będzie. No a parametry G300 powalają, ale wszystko rozbiega się o jedno , jaka bedzie tego cena ??. Jesli cena będzie konkurencyjna to ATI będzie miała problem. Jesli wyskoczą ceną z kosmosu to będzie tak jak z serią GTX 2xx zanim ceny spadły do akceptowango poziomu. Swoją drogą trzeba przyznać że marketing ATI niezle zadziałał bo ludzie woleli kupować np. HD 4890 niż GTX 275 który po OC był wydajniejszy niż 4890 po OC. No cóż i tak bywa. zauwaz moj drogi ze tylko niewielki % ( moze 2% ) ludzi bawi sie w OC a w stock ati jest lepsze Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
mak888 Opublikowano 30 Września 2009 Zgłoś Opublikowano 30 Września 2009 No nie wiem , kłuciłbym się :) http://www.frazpc.pl/artykuly/754/TWINTECH...ia/sa/najlepsze . Poza tym dla mnie NV ma ten plus że ma PHYSIX który wykorzystuje dość sporawa liczba gier. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
R4VeN_pl Opublikowano 30 Września 2009 Zgłoś Opublikowano 30 Września 2009 Nvidia zrobi wszystko, żeby mieć króla wydajności. I to im się uda patrząc na specyfikację. Ale jeśli produkt będzie o 30% szybszy od HD 5870 i jednocześnie o 100% droższy, to bez dobrych mid i low-endów będzie im ciężko. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość elograca Opublikowano 30 Września 2009 Zgłoś Opublikowano 30 Września 2009 pewnie mniej i to sporo mniej niż 2% ludzi bawi się w oc Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
mak888 Opublikowano 30 Września 2009 Zgłoś Opublikowano 30 Września 2009 Dokładnie. NV musi wypuścić tą karte w cenie 5870 , albo o 10% droższą z wydajnością większą o 20-30% wtedy to będzie miało sens. Inaczej to dużej sprzedaży im nie wróże . No i przydały by sie wolniejsze odpowiedniki z nie tak mocno okrojonym chipem. Coś jak GTX 260 - 275. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
R4VeN_pl Opublikowano 30 Września 2009 Zgłoś Opublikowano 30 Września 2009 (edytowane) A jeżeli ma kosztować 2 koła to mniej więcej tyle co HD 5870x2, więc i od tego Radka musiałaby być ta GTX 350 wyraźnie szybsza. Wygląda na to, że zieloni mają dość konkretny orzech do zgryzienia. Edytowane 30 Września 2009 przez R4VeN_pl Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
czolo7 Opublikowano 30 Września 2009 Zgłoś Opublikowano 30 Września 2009 Wcale ta karta nie musi byc szybsza od 5870x2...wazne, ze bedzie szybsza od 5870 i juz sie Nvidia bedzie szczycic, ze ma najszybsza 1dno rdzeniowke. A potem pewnie wyjdzie kanapka....a cena, przypuszczam, ze i tak bedzie ok 2k. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Racuch Opublikowano 30 Września 2009 Zgłoś Opublikowano 30 Września 2009 (edytowane) Wszystkie źródła na niebie,ziemi i google wskazują dokładnie te same nowinki. A biedny, niedouczony Racuch kłócił się ze mną dwa dni, że nVidia nie będzie wypuszczać kart z 512bit szyną pamięci a już szczególnie dla GDDR5 ;p gdzie taktowania i czas dostępu nadrabiałyby to krojenie. fpysk chce ? wyszło na moje ;-) p.s. nie ma co "fanatykować", czas pokaże co, ile i za ile :) Edytowane 30 Września 2009 przez Racuch Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Zieger69 Opublikowano 30 Września 2009 Zgłoś Opublikowano 30 Września 2009 Jakby nie było to ja też nie widzę szyny 512bit tylko 384 ... Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...