Jabar83 Opublikowano 23 Października 2013 Zgłoś Opublikowano 23 Października 2013 Za 800 dostaniesz używanego Gigabyte'a 7950, który po OC będzie znacznie lepszym wyobrem. Ale czy starczy na rok to ciężka sprawa. Wyjdą nowe konsole i porty gier z nich to się okaże. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
_Vip_ Opublikowano 23 Października 2013 Zgłoś Opublikowano 23 Października 2013 (edytowane) Za 800zł mogę kupić nowego 7950 od MSI, ale wersje z jednym coolerkiem, pewnie referent. Obawiam się, że to będzie pieruńsko głośne :/ EDIT : Zamówiłem sobie MSI R9 270X 2GB Gaming za 719zł, za taka kase kiedyś kupowałem R7850, więc jakby nie było upgrade Edytowane 24 Października 2013 przez _Vip_ Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
radiergummi Opublikowano 24 Października 2013 Zgłoś Opublikowano 24 Października 2013 Ceną zrobili masakrę. W takiej sytuacji śmiało można dołożyć do bloku wodnego i zniwelować przynajmniej jedną z dwóch wad tej karty. Entuzjaści będą zadowoleni. Ja może rykoszetem dostanę obniżkę cen ^^. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Jabar83 Opublikowano 24 Października 2013 Zgłoś Opublikowano 24 Października 2013 (edytowane) Poczekam na wersje niereferencyjne i zobaczymy. Nvidia niech lepiej uspokoi się z tą ceną jaką sobie życzy za GTX 780, bo się pogrążą. Zresztą oni zawsze byli znani z zawyżania cen za swoje karty i ja się dziwie czemu jak wiedzieli że R9 290X pewnie pozamiata. Mogli już wcześniej zadziałać. Do tego AMD przy seri 7xxx dodawało gry gratis, więc z czym do ludzi Nvidia. Za 500 zł więcej, gdybym odłożył zakup GTX 670, miałbym praktycznie 2x większą wydajność. Życie :/ Edytowane 24 Października 2013 przez Devil Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Heat Opublikowano 24 Października 2013 Zgłoś Opublikowano 24 Października 2013 Nvidia niech lepiej uspokoi się z tą ceną jaką sobie życzy za GTX 780, bo się pogrążą. Swoje już zarobiła na 780'tkach to może sobie teraz obniżyć cenę ;) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
99tomcat Opublikowano 24 Października 2013 Zgłoś Opublikowano 24 Października 2013 W 28nm ta karta może nie jeden krok za daleko ale ociera się juz o granicę.Przy podobnej cenie i po o/c na codzień wolał bym chyba 780kę.Za to do benchy ew 2560x1440 sczególnie do w bf3/4 na wodzie lub niereferencyjną przygarnął bym ;) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
thuGG Opublikowano 24 Października 2013 Zgłoś Opublikowano 24 Października 2013 http://www.techpowerup.com/reviews/AMD/R9_290X/1.html Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Jabar83 Opublikowano 24 Października 2013 Zgłoś Opublikowano 24 Października 2013 Tutaj z kolei to prezentuje się zupełnie inaczej. Różnice nie są aż tak wielkie. Więc cenowo wygrywa i tak. Czekamy na odpowiedź Nvidii. Fakt swoje już zarobiła, ale prawdziwy bum zacznie się po wydaniu nowych konsol i pierwszych portów na PC. Do tego czasu pewnie Nvidia wypuści swoje nowe karty z seri 8xx czy jak tam one będa numerowane. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
_KaszpiR_ Opublikowano 24 Października 2013 Zgłoś Opublikowano 24 Października 2013 IMO PurePC powinno robic jeszcze wykresy z zestawieniem wszytkich cech poprzez jakis wzorek. Nie znam sie na tym ale juz taki wzroek bylby pomocny: wynik = (srednia fps danej rozdzialki) / (cena + (1/2)*halas + (1/2)*temperatura + prad) Aczkolwiek kazdy troche inaczej odbiera halas i temperature i prad, czy cene ;D Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
_Vip_ Opublikowano 24 Października 2013 Zgłoś Opublikowano 24 Października 2013 (edytowane) Mi brakuje takich wykresów, które by podsumowywały % wydajność względem wcześniej testowanych kart w różnych rozdzielczościach, coś na kształt tego co robią na techpowerup. Super czytelne rozwiązanie i pozwala fajnie wybrać dla siebie kartę patrząc własnie na wydajność w rozdzielczości w jakiej chcemy grać. http://www.techpowerup.com/reviews/AMD/R9_290X/27.html Edytowane 24 Października 2013 przez _Vip_ Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
ent Opublikowano 24 Października 2013 Zgłoś Opublikowano 24 Października 2013 (edytowane) Mi brakuje takich wykresów, które by podsumowywały % wydajność względem wcześniej testowanych kart w różnych rozdzielczościach, coś na kształt tego co robią na techpowerup. Super czytelne rozwiązanie i pozwala fajnie wybrać dla siebie kartę patrząc własnie na wydajność w rozdzielczości w jakiej chcemy grać. http://www.techpowerup.com/reviews/AMD/R9_290X/27.html Tak, to chyba najlepsze i najbardziej czytelne rozwiązanie, nie wiem do końca jak oni to liczą, ale najlepiej pokazuje wynik testu. Edytowane 24 Października 2013 przez ent Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
_KaszpiR_ Opublikowano 24 Października 2013 Zgłoś Opublikowano 24 Października 2013 Dokladnie. Do tego wykres pokazujacy roznice karty na domyslnych zegarach i po pokreceniu. Kolejny raz wskazuje redakcji, ze warto byloby to wprowadzic, a teraz widze, ze nie jestem sam. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
thuGG Opublikowano 24 Października 2013 Zgłoś Opublikowano 24 Października 2013 Ja właściwie patrzę tylko na podsumowanie na techpowerup, dobrze obrazuje to gdzie karta jest na tle innych. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
_KaszpiR_ Opublikowano 24 Października 2013 Zgłoś Opublikowano 24 Października 2013 (edytowane) http://www.techpowerup.com/reviews/AMD/R9_290X_CrossFire/ crossfire... what? dopiero 256x1600 pokazuje ze dziala. bardzo brakuje SLI na wykresach. Edytowane 24 Października 2013 przez _KaszpiR_ Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Caleb Opublikowano 24 Października 2013 Zgłoś Opublikowano 24 Października 2013 (edytowane) Aloha! Chociaż wakacyjne upały dawno już odeszły w zapomnienie, to atmosfera na rynku kart graficznych jest wyjątkowo gorąca dzięki poczynaniom AMD i NVIDIA, które sumiennie dokładają do pieca kolejne premiery. Czerwoni od dłuższego czasu przygotowywali potężną jesienną ofensywę, rozpoczętą w momencie wprowadzenia do sprzedaży Radeon R9 280X, R9 270X i R7 260X, jednak najcięższe działa dopiero miały zostać wytoczone. Starcie gigantów nastąpiło dzisiaj o poranku, kiedy Radeon R9 290X mający pokonać nie tylko GeForce GTX 780, ale również GeForce GTX Titan, zadebiutował z całą stanowczością. Czy 512-bitowa magistrala, 4GB pamięci GDDR5 oraz brutalna moc obliczeniowa pozwolą poważnie namieszać w szykach NVIDII? Jaki będzie koszt zwycięstwa w klasie high-end? Rywalizacja między zawodnikami wagi superciężkiej wchodzi właśnie w decydującą fazę, aczkolwiek nowe dziecko koncernu z Sunnyvale nie będzie miało łatwego zadania, gdyż niebawem NVIDIA przeprowadzi kontratak w postaci GeForce GTX 780 Ti jednocześnie obniżając ceny GeForce GTX 780. Silna konkurencja to dobra konkurencja, więc potencjalni klienci powinni być z takiego obrotu spraw bardzo zadowoleni. Przed Wami test kart graficznych Radeon R9 290X, GeForce GTX 780 i GeForce GTX Titan, które zmierzą się w bezlitosnej walce o tytuł króla wydajności. Test kart graficznych Radeon R9 290X vs GeForce GTX 780 vs GeForce GTX Titan - PurePC.pl Edytowane 24 Października 2013 przez Caleb Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gemtin1 Opublikowano 24 Października 2013 Zgłoś Opublikowano 24 Października 2013 Nie wiem jak to podsumować : Cena genialna, karta bije gtx780 a powyżej full HD często i Titana ale jest to okupione wysoką temperaturą a co za tym idzie poborem prądu. Widać że oc nie powala, zaledwie 100mhz ale trzeba podkreślić ze na referencyjnym chłodzeniu. Boje się tylko jednego- cpu AMD jest gorące i ma puste MHz i mam nadzieje ze nie czeka tego samego gpu. Tapatapatap i9001 Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
zaodrze244 Opublikowano 24 Października 2013 Zgłoś Opublikowano 24 Października 2013 (edytowane) http://www.techpowerup.com/reviews/AMD/R9_290X_CrossFire/ crossfire... what? dopiero 256x1600 pokazuje ze dziala. bardzo brakuje SLI na wykresach. na guru3d masz sli z 780 http://www.guru3d.com/articles_pages/radeon_r9_290x_crossfire_vs_sli_review_benchmarks,8.html na techpowerup masz odniesienie do 690 a to już daje jakiś obraz sytuacji. na pcper jest fajny test: http://www.pcper.com/reviews/Graphics-Cards/AMD-Radeon-R9-290X-Hawaii-Review-Taking-TITANs/Battlefield-3 crossfire: http://www.pcper.com/reviews/Graphics-Cards/Frame-Rating-AMD-Radeon-R9-290X-CrossFire-and-4K-Preview-Testing Edytowane 24 Października 2013 przez zaodrze244 1 Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
_KaszpiR_ Opublikowano 24 Października 2013 Zgłoś Opublikowano 24 Października 2013 Racja, ale 690 to nie to samo co sli z dwoch oddzielnych kart, (ot zeby sie czepnac ;D). Dzieki za linki. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
MaciekCi Opublikowano 24 Października 2013 Zgłoś Opublikowano 24 Października 2013 (edytowane) Różnica w cenie pomiędzy urządzeniami jest niewielka (~120 PLN) Więc cenowo wygrywa i tak. Cenowo wygrywa ? Nie chcę być złośliwy, ale czy za prąd płacą rodzice, a może masz jakieś zniżki na prąd, tudzież własny generator ? W przeciągu 2 lat różnica w cenie spokojnie się zwróci, a jak ktoś jest zapalonym gamerem to może i nawet wcześniej. Powyżej 2 lat na R290X będziesz odnotowywał straty na prądzie, także wybacz, ale argument "tańszy" do mnie wcale a wcale nie przemawia, bo po prostu NIE JEST w eksploatacji. Druga sprawa, jak ja mam dołożyć tą stówkę więcej za ciszę i chłód to poproszę, a nawet dwa ! Edytowane 24 Października 2013 przez MaciekCi 1 Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
thuGG Opublikowano 24 Października 2013 Zgłoś Opublikowano 24 Października 2013 Ciekawe jak to policzyłeś, prąd z Japonii ściągasz czy jak? Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
MaciekCi Opublikowano 24 Października 2013 Zgłoś Opublikowano 24 Października 2013 (edytowane) Ciekawe jak to policzyłeś, prąd z Japonii ściągasz czy jak? W podstawówce uczą takich rzeczy, więc jeśli nie wiesz ... 1kWh kosztuje u mnie 0,33pln. Jeśli u Ciebie taniej, to gratuluję dostawcy. +9W w spoczynku, +77W przy filmie, +79W przy grze. Edytowane 24 Października 2013 przez MaciekCi 1 Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
thuGG Opublikowano 24 Października 2013 Zgłoś Opublikowano 24 Października 2013 (edytowane) Posłużyłem się tym kalkulatorem: http://www.calculla.pl/pl/koszt_pradu Przy założeniu użycia 6h dziennie, cenie 0.33 zł za kWh i mocy urządznia 50W (na tyle uśredniłem), wyszło rocznie 36zł. Przy 70W- 50zł rocznie. No rzeczywiście kokosy. Edytowane 24 Października 2013 przez thuGG 1 Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Passt Opublikowano 24 Października 2013 Zgłoś Opublikowano 24 Października 2013 Już po necie ( chyba Overclockers.uk) prawdopodobnie hulają wyniki w 3DMarku R9 290. Wygląda na to ,że jest na co czekać. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
ememiks Opublikowano 24 Października 2013 Zgłoś Opublikowano 24 Października 2013 Okej można już nabyć to cudo w naszym skromnym kraju ? Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
sideband Opublikowano 24 Października 2013 Zgłoś Opublikowano 24 Października 2013 Tak można nabyć. Za leniwy jesteś by zajrzeć do sklepów internetowych ? Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
ememiks Opublikowano 24 Października 2013 Zgłoś Opublikowano 24 Października 2013 Tak można nabyć. Za leniwy jesteś by zajrzeć do sklepów internetowych ? Coś w tym stylu ;) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
_KaszpiR_ Opublikowano 24 Października 2013 Zgłoś Opublikowano 24 Października 2013 (edytowane) to my jestesmy za leniwi, aby odpowiedziec w jakich. Edytowane 24 Października 2013 przez _KaszpiR_ Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
MaciekCi Opublikowano 24 Października 2013 Zgłoś Opublikowano 24 Października 2013 (edytowane) Posłużyłem się tym kalkulatorem: http://www.calculla.pl/pl/koszt_pradu Przy założeniu użycia 6h dziennie, cenie 0.33 zł za kWh i mocy urządznia 50W (na tyle uśredniłem), wyszło rocznie 36zł. Przy 70W- 50zł rocznie. No rzeczywiście kokosy. Raduje mnie, że nasze społeczeństwo zmienia karty graficzne co rok. Niestety posłużyłem się swoim przykładem, gdzie topową kartę graficzną mam już ponad 4 lata, bardzo dużo chodziła na maksymalnych obrotach za czasów projektowania 3D , Photoshop też swoje żre a przy okazji komputer robi za domowy odtwarzacz filmów, więc nie rzadko też chodzi. Przy założeniu, że mam mieć tą kartę graficzną kolejne 4 lata, uważasz, że Twoje "kokosy", które wyliczyłeś (nawet 36zł) po 4 latach mi nie zwrócą równowartości różnicy między 780 a R290X ? Oczywiście, możesz poddać wątpliwości moje wywody, bo kto normalny kupując grafę za 2k< liczy oszczędności w skali 4 lat ? No przeważnie nikt, ale to w takim razie proszę nie podawać jako mocnego argumentu tego, że Radeon jest niby tańszy - bo kto normalny przy cenie 2100zł zastanawia się nad różnicą rzędu 5,5% ceny ? No sam odpowiedz, czy ja źle rozumuję. P.S. Sam siedzisz na 570 3 lata , prawda ? EDIT : Zamiast kalkulatora on-line : (((50W*6h)/1000)*365)*0,33zł = 36zł. Edytowane 24 Października 2013 przez MaciekCi 1 Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
thuGG Opublikowano 24 Października 2013 Zgłoś Opublikowano 24 Października 2013 Wcześniej mówiłeś o 2 latach lub mniej, teraz zrobiło się 4 lata. No po 4 latach pewnie się zwróci, tylko pamiętaj że dostajesz też "w gratisie" wyższą wydajność na radku. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
KaszaWspraju Opublikowano 24 Października 2013 Zgłoś Opublikowano 24 Października 2013 (edytowane) Akurat ta wyższa wydajność nie jest tak ogromna przy tylu klatkach na sekundę, przecież mocy nie zabraknie obu kartą w wyższych rozdzielczościach. Co do prądu, jak siedziałem w domu przed kompem na bezrobotnym to rachunki podskoczyły 80 - 180zł, a komp chodził po 10 -12 godzin, więc moim zdaniem jest o co kopie kruszyć. Edytowane 24 Października 2013 przez KaszaWspraju 2 Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...