-
Postów
1580 -
Dołączył
-
Ostatnia wizyta
Treść opublikowana przez konio68
-
http://forums.guru3d.com/showthread.php?p=...684#post2391684 tu macie wątek o demie z torrentów.
-
http://www.esc.pl/product_info.php?cPath=7...roducts_id=7747 tu masz tego leadteka dostępnego www.esc.pl tylko fotkę od Gtxa dali heh :) często u nich kupuje i zero problemów.
-
Dokładnie ... DDR3 nie ma sensu kupować aż ceny nie spadną do poziomu DDR2 bo przyrost wydajnośći jest hmmm :) .. a chłodzenie rózni się tylko obudową , reszta jest taka sama - można dać 30 pln ale nie 300 więcej Co do sprzedaży GTXa to też bez sensu , nie wiadomo co nam przyniesie nowa grafa , a od chwili ukazania się , pierwszych testów i unormowania się ceny będzie dość dużo czasu aby opchnąć grafę i ew zmienić mobo.
-
Dokładnie , GTX może być mało , na 2xGTX szkoda kasy bo na jesieni następca , GTS 320 w SLI bez sensu bo dalej mamy tylko 320 pamięci a to będzie za mało , Jak ktoś ma kasę to do SLI jedynie 2xGTS 640 .
-
Potwierdzam hmm cięzko powiedzieć , za 1259 w ESC masz leadteka ... ktoś ostatnio kupił i nawet fajne OC miał.
-
A ja jednak uważam że nie , słyszałem ACS3 i powiem Ci że róznicy praktycznie nie widać , natomiast za 300 można sobie o wiele cichsze i skuteczniejsze chłodzonko zapodać.Do tego przy 640 +300 hmm to jeszcze +100 i mamy GTXa ..
-
Nie warto ......
-
Jaki OS Vista czy XP ?? dla visty ; C:\Users\Konrad\AppData\Local\capcom\lostplanet a tak się nazywa ;Lostplanet.LostplanetSave-capcom tylko w opcjach folderów ustaw aby pokazywał ukryte pliki bo AppData jest ukryty.
-
.. ta z bajerów DX10 dodaje tylklo FUR , ale to fajny efekt akurat w przypadku tej gry ... :)
-
Marketing i nic więcej , 1G cienkich pamięci ale nazwa zrobi swoje . .. dokładnie do 8600 max 512 , więcej nie potrzeba bo i tak nawet w 1024 w max det ta grafa nie pociągnie płynnie gierek. Do G80 GTXa to jeszcze ok......przerost formy nad treścią. do tego DDR2 ...
-
Jak chcesz sprawdzić stabilność to odpal 3marka z max AA i AF i ustaw pętle tak aby z godzinke chociaż chodził.
-
Też tak myslę raczej mu kupię tego Inno3D.
-
http://www.allegro.pl/item223316471_in3d_8...x_striker3.html a co o tym myślicie , bo za tydzień kumplowi kompa składam i muszę jakiegoś 8600 zakupić jeszcze biorę pod uwagę : http://www.esc.pl/product_info.php?manufac...roducts_id=7850
-
Nie to nie jest standard , dodatek a słuzy do stabilniejszego obsadzenia karty - tą blaszką blokujesz kartę nie dość ze na śledziu to jeszcze od przedniej strony kompa , fajny bajer , - można to odkręcić bez problemów.mocowana jest z boku do radiatora i z tyłu pcb na 2 śruby , do radiatora o ile się nie mylę na 4 , 2x2 obok siebie po przeciwnej stronie , każdy radiator ma już te 2 otwory osadzone jeden nad drugim. Z tego co się orientuje seria Quadro ma to jako standard.
-
No z tym obrazem .... to na 100% wina sterowników. zainstaluj nowe stery .... ale najpierw usuń poprzednie ... koniecznie odinstaluj stare. W Panelu będziesz miał opcje odnośnie ustawienia SLi , poczytaj na stronie Nvidi. Ale najpierw wywal stare stery .... te przygasanie monitora to problem ze sterownikiem , Xp tego nie pisze natomiast Vista tak ..... ściągnij 162.50 oficjalne , dla XP lub Visty w zależności co masz. Ale twoje problemy to jest na pewno problem ze sterami ........
-
U brata kłania się wentylacja w budzie i to mocno . oczywiście karcie nic nie będzie do 90C ale po co ją męczyć. Dla przykładu powiem Ci ze nawiew 120 z przodu na dole dla karty pokroju G80 daje około 10C. Do tego przy tego rodzajach kart wskazany jest zasilacz z wentylem 120 od spodu , który wyciąga ciepło od proca , a już idealnym rozwiązaniem jest jeszcze 120 z tyłu budy. Oczywiście przy temp otoczenia około 30C temp GPU w idle będzie około 60C a w stresie może dochodzić do 80.
-
Problem moim zdaniem nie wynika z kompatybilności kart. Co do temp 80C też nie jest powodem tych problemów Zacznij od wyjęcia SB i ustaw pci-e na szywno na 100 w biosie.
-
Tu nie chodzi o to że ktoś zazdrości , tylko że pisze głupoty . Zawsze najwięcej mają do powiedzenia w takich komentarzach osoby , które widziały daną kartę w internecie i naczytało się różnych głupot.tak samo jest z Vistą . Osobiście staram się wypowiadać na tematy , których sam doświadczyłem , choć nie ukrywam że czasem nie trzymam się tej reguły. Co do samej karty , osobiście wolę wydać na grafę raz na 1,5 roku niż na komórkę .Fakt 2,5k za kartę to masa kasy. i zawsze strata na cenie jest ogromna , ale każdy kupuje to na co go stać i jakie ma potrzeby. Osobiście lubię ładne detale w grach i to mnie popycha do kupowania takich kart , choć nie zawsze jest to racjonalne i nie zawsze miałem karty z górnej półki .Za czasów GF6 kupiłem 6800/128 a za pół roku plułem sobie że nie kupiłem wersji GT choć różnica była około 200 pln. Ale jednego jestem pewien GTX spełnił moje oczekiwania co do wydajnośći w 100% . Co do Dx10 też nie jest źle na dzień dzisiejszy a różnice pomiędzy Dx10 a 10.1 są tak małe że w grach tego nie odczujemy a jak wyjdzie gra z DX10,1 to i tak będzie kompatybilna z DX10 więc problemu nie widzę.Ale zanim takie gry wyjdą to i tak zmienię grafę.
-
No komenty są na poziomie przedszkola po ich przeczytaniu powinienem : 1.sprzedać GTxa bo to syf 2.Podpalić Microsoft 3.Zabić się , ewntualnie rozpłakać. ... a jakbym wybrał opcję z płaczem to kupić grafę za 50pln bo ona nie traci na wartości :) - i grać w bierki chyba . Ten tekst był piękny '' stać mnie kupić kilka GTxów ale mam grafę za 50 pln bo ona na wartości nie traci ".
-
Przecierz to było wiadomo juz dawno , Do tego czy odpalisz grę na 10.0 czy 10.1 róznicy nie uwidzisz :) a zanim Dx10.x bedzie już mocno zadomowiony to i tak grafę zmienisz. :)
-
Hmm jak tak czytam to niektóre cienko , mojego młodego poszedł z mety bez zadnych modów na 600/800 [.GALAXY 7600GS 256MB 500/1400 . Zalman]. Zresztą teraz lezy w szafie , uzywał go miesiąc ....... trzeba z nim będzie na allegro wystartować :)
-
uzupełnij opis , jaka rozdziałka , jakie stery , jaki system ? bo bez tego nikt Ci nic nie podpowie.
-
ma ktoś z was tego palita 8600GT z 512 , jak to się kręci ?
-
Hmm .. może ustawiłeś w 2D wyższe takty .... np w RT jak i innych masz kręcenie w 2D i 3D oddzielnie i w obu trybach mozesz sobie zmieniać .... ta funkcja działa już od serii 6 na 100% .. musiałeś w 2D zmieniać. Opcja 2D/3D działa tylko dla GPu.
-
Normalne ,w 2D przeskakuje na standard a w 3D wskakuje na OC .. ale tyczy to się tylko GPU pamięci zawsze masz na tyle ile ustawisz.