_KaszpiR_ Opublikowano 22 Marca 2013 Zgłoś Opublikowano 22 Marca 2013 Mam ten sam dylemat. Ja sie jeszcze dolączę z innym pytaniem, bo szczerze nie mialem kiedy sprawdzic. Czy karty w SLI muszą być zgodne pod wzgledem firmware? Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
sideband Opublikowano 22 Marca 2013 Zgłoś Opublikowano 22 Marca 2013 Mogą być różne biosy , ale najlepiej jakby były tak samo taktowane , ale to już nie problem - edycja biosu. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
_KaszpiR_ Opublikowano 22 Marca 2013 Zgłoś Opublikowano 22 Marca 2013 Hm z tym taktowaniem to raczej nimozliwe, bo z aktualnie dynamicznie zmiennym zegarem to pewnie one same sie jakos tam dogaduja ;) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Jabar83 Opublikowano 22 Marca 2013 Zgłoś Opublikowano 22 Marca 2013 (edytowane) Można ustawić na sztywno Takty w przypadku Nvidii grzebiąc w biosie. Wyłaczajać przy tym Boost'a. Ja mam na stałe ustawione 1267 do którego wzrasta w Stresie. Nie spada do 1000 lub 1100. Spada dopiero w Idle i utrzymuje się w przedziale od 324 do ok 900 mhz. Edytowane 22 Marca 2013 przez Devil Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
sideband Opublikowano 22 Marca 2013 Zgłoś Opublikowano 22 Marca 2013 (edytowane) Hm z tym taktowaniem to raczej nimozliwe, bo z aktualnie dynamicznie zmiennym zegarem to pewnie one same sie jakos tam dogaduja Nie dogadują się tylko szybsza karta i tak zwolni(przed boostem było to samo , boost nie ma nic do tego) , ale i tak będzie pracować z wyższym taktem. Odpowiedz sobie na pytanie czy to przysporzy ci więcej problemów czy mniej Edytowane 22 Marca 2013 przez sideband Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
_KaszpiR_ Opublikowano 22 Marca 2013 Zgłoś Opublikowano 22 Marca 2013 (edytowane) Dzieki za info, na razie wiekszym problemem jest znalezenie na allegro jakiejs karty EVGA, co by byla zgodna z moja. Tak sie jeszcze zastanawiam, bo do tego musialbym skolowac drugi blok wodny oraz linking bridge.... A i k... zasilacz, bo chyba na 620W to sie bym zesral... Edytowane 22 Marca 2013 przez _KaszpiR_ Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
ptys Opublikowano 22 Marca 2013 Zgłoś Opublikowano 22 Marca 2013 ma ktoś jakiegoś tutka jak wyłączyć boost w biosie, numer z nvidia inspektorem znam chodzi mi o edycje biosu Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Jabar83 Opublikowano 22 Marca 2013 Zgłoś Opublikowano 22 Marca 2013 Kepler BIOS Tweaker http://uploaded.net/file/cl7lcc82 Pobierasz Bios z karty za pomocą GPU-z. Odpalasz KBT i ustawiasz taki sam Base Clock co Boost Clock. Nie wiem czy też Boost Limit trzeba ustawić podobnie. Side to Ci bardziej wytłumaczy, bo zrobił dla mnie gotowy Bios. Można tam też ustawić napięcie i zakres działana wentylatora. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Heat Opublikowano 23 Marca 2013 Zgłoś Opublikowano 23 Marca 2013 Czy osoby korzystające z konfiguracji SLI mogłyby napisać jak to aktualnie wygląda z tymi mikroprzycięciami ? Czy one rzeczywiście występują i czy rzeczywiście płynność obrazu w SLI jest odczuwalnie słabsza niż by to wynikało z liczby fps ? Ktokolwiek ? ;) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Blue Opublikowano 24 Marca 2013 Zgłoś Opublikowano 24 Marca 2013 u mnie chyba nic takiego nie występuje, jestem zadowolony ze sli ,wcześniej miałem 570gtx też w sli i też wszystko było ok. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Jabar83 Opublikowano 24 Marca 2013 Zgłoś Opublikowano 24 Marca 2013 Mnie tylko martwi że mój zasilacz ma 4x 6 pin. Ale na dwóch wtyczkach są dwie dodatkowe piny. Tyle że one po złączeniu nie pasują do wejścia w GTX 670. Musialem użyć przejściówki dołączonej do karty. W każdym razie mam wątpliwości czy jest sens się pakować w SLI. Do tego dochodzi sprawa procesora i5 2500K, który wyciąga max 4.5 ghz. W Crysis 3 jest wykorzystywany w 90% co jest już sporo. Na razie się wstrzymuje z kupnem do przyszłego roku. Raczej platformy nie będę już zmieniał. Wyjdą nexgeny i się okaże jakie będą miały wymagania przyszłe gry. Na razie to co mam mi starcza. Crysis 3 przeszedłem dość komfortowo przy przyzwoitych ustawieniach. Jedynie z AA musiałem zjechać i moze były ze 3-4 momenty w grze, gdzie FPS spadł poniżej 30 klatek, a średnio szedł ok 45. Nie jest to stałe 60, ale mi to zbytnio niepotrzebne. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Blue Opublikowano 24 Marca 2013 Zgłoś Opublikowano 24 Marca 2013 ja kupilem bo mam duży monitor 2560x1600 Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
_KaszpiR_ Opublikowano 25 Marca 2013 Zgłoś Opublikowano 25 Marca 2013 http://www.geforce.com/drivers/results/59641/nvidiaupdate# nowe stery głównie pod Bioshock Infinite. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Caleb Opublikowano 26 Marca 2013 Zgłoś Opublikowano 26 Marca 2013 Wśród producentów układów graficznych stosunkowo długo panowała stagnacja, objawiająca się brakiem jakichkolwiek interesujących nowości i niezbyt agresywną polityką cenową, jednak kiedy nareszcie coś drgnęło, to niemalże równocześnie na obydwu frontach. Najpierw AMD zaprezentowało Radeon HD 7790, natomiast teraz NVIDIA wprowadza do sprzedaży GeForce GTX 650 Ti Boost. Skutkiem tego na rynku doszło do przetasowania i zmiany warty, gdyż niektóre modele za chwilę odejdą na emeryturę lub stracą na atrakcyjności, zaś bohater dzisiejszej recenzji jest przyczyną owego stanu rzeczy. GeForce GTX 650 Ti BOOST stanowi pomost między GTX 650 Ti oraz GTX 660, aczkolwiek nowej karcie graficznej „Zielonych” zdecydowanie bliżej do drugiego z wymienionych GPU, niżeli budżetowego Keplera niezbyt skutecznie walczącego z Radeon HD 7770 i 7790. Gigant z Santa Clara nareszcie postanowił wystosować odpowiedź na cieszącego się dużą popularnością Radeona HD 7850, czyli wypełnić lukę w ofercie urządzeniem zapewniającym bardzo korzystny stosunek ceny do wydajności. Moment na wprowadzenie takiego modelu okazał się nadzwyczaj trafiony, ponieważ wieść gminna niesie, iż niebawem AMD zacznie wygaszać produkcję tańszego z braci Pitcairn. Czy GeForce GTX 650 Ti BOOST zdoła pokonać Radeon HD 7850 przekonamy się niebawem, analizując słupki w kilkunastu testach, a tymczasem zerknijmy na nowość od strony czysto technicznej... GeForce GTX 650 Ti BOOST vs Radeon HD 7850 - Test średniaków Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
_KaszpiR_ Opublikowano 26 Marca 2013 Zgłoś Opublikowano 26 Marca 2013 Zmien temat topiku ;) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
_KaszpiR_ Opublikowano 23 Kwietnia 2013 Zgłoś Opublikowano 23 Kwietnia 2013 jakis tam test nowych sterów beta http://forums.guru3d.com/showpost.php?p=4582703&postcount=73 Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
sideband Opublikowano 23 Kwietnia 2013 Zgłoś Opublikowano 23 Kwietnia 2013 Błagam cie , nie pokazuj tych popłuczyn Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
_KaszpiR_ Opublikowano 23 Kwietnia 2013 Zgłoś Opublikowano 23 Kwietnia 2013 (edytowane) nikt cie nie zmusza do czytania... dlatego napisalem 'jakiestam' ;D Edytowane 23 Kwietnia 2013 przez _KaszpiR_ Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
tanky Opublikowano 24 Kwietnia 2013 Zgłoś Opublikowano 24 Kwietnia 2013 Witam, nawiązując jeszcze do sli, w następnym miesiącu zamierzam złożyć nową budę, i tak się zastanawiałem, czy warto pchać się właśnie w łączenie kart nvidii, tzn. dwa tańsze modele cenowo odpowiadające pojedyńczej karcie, konkretnie rzecz biorąc: w sli: http://www.morele.net/karta-graficzna-msi-geforce-cuda-gtx660-twinfrozr-iii-2gb-ddr5-192bit-2dvi-hdmi-dp-box-n660-tf-2gd5-oc-517460/ czy może jednak, kupić pojedyńczą jednostkę, i ewentualnie po jakimś czasie dokupić drugą http://www.morele.net/karta-graficzna-gigabyte-geforce-gtx670-2048mb-ddr5-256bit-dvi-hdmi-dp-pci-e-1058-6008-wer-oc-overclock-gv-n670oc-2gd-475231/ Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
_KaszpiR_ Opublikowano 24 Kwietnia 2013 Zgłoś Opublikowano 24 Kwietnia 2013 Lepiej kup 670, a potem jak nie bedziesz zadowlony to dokupisz druga. Jesli jakis tytul nie obsluguje SLI to wtedy masz wydajnosc jednej karty. Pamietaj o odpowiednio dobrym zasilaczu. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Caleb Opublikowano 24 Kwietnia 2013 Zgłoś Opublikowano 24 Kwietnia 2013 (edytowane) Skoro przewija się temat Multi-GPU, to można zerknąć na nowego arta: http://www.purepc.pl/karty_graficzne/test_radeon_hd_7990_vs_geforce_gtx_690_vs_geforce_gtx_titan Edytowane 24 Kwietnia 2013 przez Caleb Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
_KaszpiR_ Opublikowano 24 Kwietnia 2013 Zgłoś Opublikowano 24 Kwietnia 2013 (edytowane) @ Caleb, a gdzie tam jest w tym artykule jakikolwiek wykres porownujacy owe karty ze SLI /CF zlozonyz z dwoch osobnych kart? edit: (doprecyzowanie pytania) Edytowane 24 Kwietnia 2013 przez _KaszpiR_ Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Jabar83 Opublikowano 24 Kwietnia 2013 Zgłoś Opublikowano 24 Kwietnia 2013 GTX 670 od Gigabyte'a ładnie się podkręca i na razie mi starczy. Też myślę o drugiej w przyszłóści. Pozostaje kwestia zasilacza. Mam BQ 750 W. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
zaodrze244 Opublikowano 24 Kwietnia 2013 Zgłoś Opublikowano 24 Kwietnia 2013 (edytowane) to chyba będziesz musiał po prostu sprawdzić. też się zastanawiałem nad tym czy mój uciągnie dodatkowego gtx680 i wychodzi mi na to że powinien wcześniej potrafił sobie poradzić z i5 750@4ghz + 2xgtx480 - karty nie podkręcone. przy próbie ich podkręcenia komp się restartował -> zasilacz zaczął klękać. no ale kepler to nie fermi i powinno być znacznie lepiej w kwestii zasilania - tak się przynajmniej łudzę. wszystko oczywiście kwestia przyszłości, skoro dx11,1 ma być ostatnim póki co "dx", czyli dorzucenie drugiej karty będzie chyba bardziej ekonomicznym rozwiązaniem niż np zmiana platformy na hanscwella a za rok na jakąś nową kartę od nv lub amd. Edytowane 24 Kwietnia 2013 przez zaodrze244 Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
sideband Opublikowano 24 Kwietnia 2013 Zgłoś Opublikowano 24 Kwietnia 2013 Chcesz mieć komfort grania i dobrą płynność , dużo mniej problemów to sli odpada. Jeżeli wydajność maxwella będzie taka jak na wykresach to zabije keplera i zapewne przyniesie sporo nowości , nowego dx-a zapewne też. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
_KaszpiR_ Opublikowano 24 Kwietnia 2013 Zgłoś Opublikowano 24 Kwietnia 2013 sideband, tyle ze jak na razie widzielismy tylko ilość GFLOPS per Watt, wiec to jest bardzo specyficzny wykres, stwierdzajacy tylko, ze nastepne karty beda zrec mniej pradu. Mozna zrobic karte obliczeniowo tak samo wydajna jak np gtz 680 ale zraca mniej pradu. Jednakze z przyczyn technologicznych np nie bedzie sie dalo pewnych innych rzeczy dalo wrzucic - w efekcie, fps takie samo. Vide Titan, ma jednostek w kosmos, a jednak takiego liniowego przyrostu mocy to nie dalo. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
sideband Opublikowano 24 Kwietnia 2013 Zgłoś Opublikowano 24 Kwietnia 2013 Titan to kepler , maxwell to inna architektura. Nigdy dodawanie jednostek nie dawało i nie będzie liniowego wzrostu wydajności , bo to nie możliwe , to samo tyczy się wzrostu taktowania. Skoro maxwell ma mieć dużo lepszy współczynnik wydajność na wat to oznacza jedno dużo skok wydajnośći , ponieważ tdp high-end-u od dawna wacha się od 170-250wat. A titan ma większy współczynnik wydajność na wat od 680gtx Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
MaciekCi Opublikowano 24 Kwietnia 2013 Zgłoś Opublikowano 24 Kwietnia 2013 (edytowane) Jednakze z przyczyn technologicznych np nie bedzie sie dalo pewnych innych rzeczy dalo wrzucic - w efekcie, fps takie samo. Jedyną sytuacją, w której takie coś mogłoby nastąpić to wydanie jakiejś restrykcji , która będzie mówiła o tym, że np. GPU w desktopach nie mogą pobierać więcej niż np. 150W. Ochrona środowiska i tego typu [ciach!]ły. Edytowane 24 Kwietnia 2013 przez MaciekCi Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
radiergummi Opublikowano 14 Maja 2013 Zgłoś Opublikowano 14 Maja 2013 (edytowane) (UPDATE) NVIDIA GeForce GTX 680 Modified Into GeForce GTX 770 No dobra, który odważny właściciel GTX 680 chce mieć "nową" kartę? Edytowane 14 Maja 2013 przez radiergummi Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
zaodrze244 Opublikowano 14 Maja 2013 Zgłoś Opublikowano 14 Maja 2013 a tu kolejny link http://www.techpowerup.com/183936/geforce-gtx-680-can-be-flashed-to-gtx-770.html ja bym się pobawił ale mam już zmodowanego biosa i podbite napięcie na 1,212v. jeżeli można to również zrobic z biosem od 770 to wgrywam :D Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...