worms1414 Opublikowano 1 Lutego 2013 Zgłoś Opublikowano 1 Lutego 2013 Gdzieś widziałem już testy domniemane w 3dm11, nie pamiętam wyniku ogólny był dość wysoki, przegonił gtx690, jednak to chyba jakiś fake, bo dla grafiki było mniej jak na gtx 670. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Dammeron Opublikowano 1 Lutego 2013 Zgłoś Opublikowano 1 Lutego 2013 (edytowane) Na TPU był news ze screenem ze smarka 2011 i wynikiem X7100. Uwierzę, jak zobaczę właściwą recenzję... Edytowane 1 Lutego 2013 przez Dammeron Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
chemiczny_ali Opublikowano 1 Lutego 2013 Zgłoś Opublikowano 1 Lutego 2013 Kiedy można się spodziewać odświeżonej oferty? Może nie takiego monstrum, ale czegoś nowszego. Słyszałem coś o Marcu prawdopodobne? Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
MaciekCi Opublikowano 1 Lutego 2013 Zgłoś Opublikowano 1 Lutego 2013 Z przyjemnością i dumą zgarnę GeForce Ti ... Mam przeogromny sentyment do serii Ti. Jeszcze żeby Gainward zrobił GoldenSample i Jumbo ... ehh. ;) Głupota a jak cieszy ... Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Orgiusz Opublikowano 1 Lutego 2013 Zgłoś Opublikowano 1 Lutego 2013 Ale Ti to był Titanium a nie Titan [; I może do tego czerwony laminat i żółte chłodzenie? :P Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
MaciekCi Opublikowano 1 Lutego 2013 Zgłoś Opublikowano 1 Lutego 2013 Ale Ti to był Titanium a nie Titan [; I może do tego czerwony laminat i żółte chłodzenie? :P Racja, ale dopisek "co budzi słuszne skojarzenia z dopiskiem Ti znanym od czasu GeForce 2", jakoś tak mnie pozytywnie nastawia. ;) Co do kolorów, widzę, że dwa razy nie trzeba mówić : P Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Dammeron Opublikowano 1 Lutego 2013 Zgłoś Opublikowano 1 Lutego 2013 A w komplecie będą też okulary 3d, jak w golden sample'ach za czasów gf4? :D Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
ptys Opublikowano 4 Lutego 2013 Zgłoś Opublikowano 4 Lutego 2013 jako że pojawił się 3dsmak wklejam link do wyniku http://www.3dmark.com/3dm/7305 dodam tylko że karta w niektórych testach nie osiąga pełni traktowania Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Blue Opublikowano 4 Lutego 2013 Zgłoś Opublikowano 4 Lutego 2013 ja coś takiego, http://www.3dmark.com/3dm/13262 za pierwszym razem Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
radiergummi Opublikowano 5 Lutego 2013 Zgłoś Opublikowano 5 Lutego 2013 NVIDIA GeForce Titan Features 6 GB Memory – Review Samples Already Shipped Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
jonathan Opublikowano 5 Lutego 2013 Zgłoś Opublikowano 5 Lutego 2013 Racja, ale dopisek "co budzi słuszne skojarzenia z dopiskiem Ti znanym od czasu GeForce 2", jakoś tak mnie pozytywnie nastawia. Co do kolorów, widzę, że dwa razy nie trzeba mówić : P Maciek Bo Ci posle takiego bys sobie oprawil w ramke :P A co do "testow" nvidii przed wydaniem produktu... to wiecie co ja mysle Niechcacy karty na tasmie produkcyjnej, traca % wydajnosci Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
ProBlackHawk Opublikowano 5 Lutego 2013 Zgłoś Opublikowano 5 Lutego 2013 (edytowane) http://www.3dmark.com/3dm/42770 EDIT: 2nd run http://www.3dmark.com/3dm/43896 Edytowane 5 Lutego 2013 przez ProBlackHawk Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
zaodrze244 Opublikowano 5 Lutego 2013 Zgłoś Opublikowano 5 Lutego 2013 http://www.3dmark.com/3dm/60688 Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
radiergummi Opublikowano 10 Lutego 2013 Zgłoś Opublikowano 10 Lutego 2013 http://www.obr-hardware.com/2013/02/this-is-titan-yeah-first-real-numbers.html Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Caleb Opublikowano 10 Lutego 2013 Zgłoś Opublikowano 10 Lutego 2013 Jak brzmi klasyk polskiego rocka - trzeba wiedzieć kiedy ze sceny zejść niepokonanym - uniwersalny przekaz grupy Perfect pasuje również w pewnym sensie do sytuacji na runku kart graficznych z najwyższej półki, których długość życia zależy od momentu wprowadzenia ich następców. Otóż, chwila debiutu kolejnej generacji high-endowych układów, to zarazem początek końca starej gwardii, jaka po prostu musi odejść w zapomnienie. Umarł Król, niech żyje Król! Takie są nieubłagane prawa rządzące rynkiem GPU, że dwie topowe karty graficzne jednego producenta, koegzystować ze sobą absolutnie nie mogą. Dlatego czołowi reprezentanci poprzedniej generacji w błyskawicznym tempie odchodzą w niepamięć. Podobny los czeka również Radeon HD 7970 oraz GeForce GTX 680, czyli aktualnie najbardziej wydajne modele w ofertach AMD i NVIDIA. Jednak zanim okrutne przeznaczenie dosięgnie obydwu gladiatorów, zdążą jeszcze stoczyć kilka spektakularnych pojedynków, aby okryć się chwałą przed definitywnym kresem swego istnienia. Natomiast jeśli premiery HD 8000 i GTX 700 (tudzież GeForce Titan) nastąpią z pewnym opóźnieniem, to jeszcze przez kilka miesięcy będziemy świadkami zmagań GK104 i Tahiti XT. Zatem, chyba warto sprawdzić, które GPU jest aktualnie lepszym wyborem dla wymagającego gracza? Do tego celu posłużą nam karty graficzne ASUS DirectCU II oraz najnowsze oficjalne sterowniki AMD i NVIDIA. Test ASUS HD 7970 vs GTX 680 DirectCU II - Ostateczne starcie Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
_KaszpiR_ Opublikowano 10 Lutego 2013 Zgłoś Opublikowano 10 Lutego 2013 (edytowane) IMO dwa czipy zamiast jednego. @radier - niby znowu jakis pro news ale jakos zero konkretow? Kolejne wykresy zawieszone w powietrzu. Edytowane 10 Lutego 2013 przez _KaszpiR_ Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
XeNoN Opublikowano 11 Lutego 2013 Zgłoś Opublikowano 11 Lutego 2013 http://www.3dmark.com/3dm/187806 Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
plnk Opublikowano 14 Lutego 2013 Zgłoś Opublikowano 14 Lutego 2013 Hej Nie chcę za bardzo zakładać nowego tematu, więc napiszę tutaj. Kupiłem tę kartę: http://www.morele.net/karta-graficzna-asus-geforce-gtx660ti-2048mb-ddr5-192b-d-h-dp-pci-dc-2-gtx660-ti-dc2-2gd5-472456/ Jednak są też wersje OC i TOP, które chyba nie różnią się niczym, prócz taktowania rdzenia i chyba pamięci. Obecnie na rdzeniu mam 915MHz, czy mogę śmiało podkręcać do ~950-960 albo i 1GHz bez obawy o kartę? Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
zaodrze244 Opublikowano 14 Lutego 2013 Zgłoś Opublikowano 14 Lutego 2013 @plnk oczywiście że tak, kręć kartę do utraty stabilności - tzn wysypujące się gry i tak dalej. karty graficznej takiej jak twoja samym podkręcaniem nie spalisz. zainstaluj sobie msi afterburner i kręć ile wlezie :D Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
_KaszpiR_ Opublikowano 14 Lutego 2013 Zgłoś Opublikowano 14 Lutego 2013 krec karte az do dymu i utraty gwarancji ;D Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
plnk Opublikowano 14 Lutego 2013 Zgłoś Opublikowano 14 Lutego 2013 (edytowane) Zaczynam powątpiewać w wasze dobre intencje... Pytam poważnie, bo średnio widzi mi się wydawanie kolejnego klocka na grafikę... Przepraszam też, że nie przeczytałem całego tematu, wyszukiwałem słowa kluczowe i starałem się coś wychwycić, ale nawał pracy dziś mi to uniemożliwił. Edytowane 14 Lutego 2013 przez plnk Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
_KaszpiR_ Opublikowano 14 Lutego 2013 Zgłoś Opublikowano 14 Lutego 2013 Jesli myslisz o zmianie aktualnej karty na taka sama ale z zegarem troche lepszym? Szkoda zachodu i pieniedzy - zrobisz to samo softwareowo. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
plnk Opublikowano 14 Lutego 2013 Zgłoś Opublikowano 14 Lutego 2013 Nie chcę zmieniać, chcę podkręcić swoją. Mam referencyjne taktowania i zastanawiam się, czy jest jakiś myk w budowie wersji OC i TOP, że są kręcone wyżej, i przez to niezalecane jest takie kręcenie akurat mojego modelu. Jak już miałbym zmieniać, to chyba lepiej poczekać na 7xx. :) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
_KaszpiR_ Opublikowano 14 Lutego 2013 Zgłoś Opublikowano 14 Lutego 2013 Poszukaj na necie zorzbieranych zdjęć swojej karty i jej silniejszych braci i porównaj. Czasami dodaja dodakowe elementy w sekcji zasilania, czasami jest to inny design. W wiekszosci przypadkow raczej tylko roznia sie zegarami i to wszystko. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
zaodrze244 Opublikowano 15 Lutego 2013 Zgłoś Opublikowano 15 Lutego 2013 Nie chcę zmieniać, chcę podkręcić swoją. Mam referencyjne taktowania i zastanawiam się, czy jest jakiś myk w budowie wersji OC i TOP, że są kręcone wyżej, i przez to niezalecane jest takie kręcenie akurat mojego modelu. Jak już miałbym zmieniać, to chyba lepiej poczekać na 7xx. _KaszpiR_ namieszał ci w głowie :P odpal msi afterburnera ustaw suwak power na maxa a następnie podbijaj zegary gpu i pamięci i testuj stabilność w grach, 3dmarku, haven itd. do póki karty nie będziesz traktował lutownicą to ci gwarancja nie przepadnie nawet jeżeli karta padnie - no bo niby w jaki sposób ci udowodnią że kartę podkręcałeś softwarowo? ponadto asus przewiduje możliwość zdjęcia chłodzenia przez użytkownika celem jego wyczyszczenia. także jeżeli jakiś debil w sklepie nie ponaklejał na śruby plomb to możesz kręcić byle niczego nie pourywać lub porysować karty. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Heat Opublikowano 17 Lutego 2013 Zgłoś Opublikowano 17 Lutego 2013 Mam do Was pytanie o taktowanie rdzenia. Ostatnio grałem sobie w Dead Space 3 i zauważyłem, że karta nie wchodzi ma max taktowanie jeśli chodzi o rdzeń. W BF3 czy innych tytułach, nawet w jakimś CS'ie karta zawsze wkręca się na max a tutaj rzadko kiedy dobija do 1GHz na rdzeniu gdzie powinna u mnie po oc wskoczyć na 1215MHz. Myślałem, że po prostu ten tytuł "tak ma" ale dzisiaj odpaliłem nowego Aliena i jest dokładnie to samo. Tyle, że tutaj nawet do 1GHz rzadko kiedy dochodzi. Teraz pytanie czy karta się po prostu nudzi ? (framerate jest idelany, zero zwolnień itp.) Czy może to wina tego, że cały czas siedzę na sterach 306.97 i może brakuje im jakichś tajemniczych profili pod te gry i taktowanie jest podawane błędnie ? ;) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
ptys Opublikowano 17 Lutego 2013 Zgłoś Opublikowano 17 Lutego 2013 na innych sterach to samo, nie wie jak Dead Space 3 ale aliens ma tak cienką grafe ze gtx680 w ide by to pogonił, dx9 i to mało zaawansowany Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
_KaszpiR_ Opublikowano 17 Lutego 2013 Zgłoś Opublikowano 17 Lutego 2013 po prostu te gry nie są tak obciążające. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
zaodrze244 Opublikowano 17 Lutego 2013 Zgłoś Opublikowano 17 Lutego 2013 @heat chcesz mieć maksa to ustaw sobie w panelu nvidii -> ustawienia 3d -> tryb zarządzania energią na pełną wydajność i karta powinna cisnąć pełną parą :P Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
ptys Opublikowano 17 Lutego 2013 Zgłoś Opublikowano 17 Lutego 2013 @heat chcesz mieć maksa to ustaw sobie w panelu nvidii -> ustawienia 3d -> tryb zarządzania energią na pełną wydajność i karta powinna cisnąć pełną parą no właśnie nie cieśnie Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...