Korkodyl Opublikowano 16 Listopada 2007 Zgłoś Opublikowano 16 Listopada 2007 Teścik HardwareCanucks. CF tylko na smarku i Prey Kurcze - po podkreceniu jest calkiem niezle :) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Sulaco Opublikowano 16 Listopada 2007 Zgłoś Opublikowano 16 Listopada 2007 Zdjecia podwojnego radka w crossfire ;)ciekawe kiedy w koncu pojawia sie prawdziwe wielordzeniowe GPU, bo te wszystkie "multiGPU" na CF/SLI to mozna o kant potluc :/ Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Outlander Opublikowano 16 Listopada 2007 Zgłoś Opublikowano 16 Listopada 2007 Czy takie "CF" z dwóch rdzeni można wyłączyć? Bo jak nie to przechlapane z grami które źle lub w ogóle nie działają na CF. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
radiergummi Opublikowano 16 Listopada 2007 Zgłoś Opublikowano 16 Listopada 2007 ATI has posted an update to the display driver that solves some issues when HD3800 / HD2000 is used to play CRYSIS. http://my.ocworkbench.com/bbs/showthread.p...3281#post423281 Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Jodlasty Opublikowano 16 Listopada 2007 Zgłoś Opublikowano 16 Listopada 2007 ATI has posted an update to the display driver that solves some issues when HD3800 / HD2000 is used to play CRYSIS. http://my.ocworkbench.com/bbs/showthread.p...3281#post423281 Tu lepszy bo po polsku Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Symbian Opublikowano 16 Listopada 2007 Zgłoś Opublikowano 16 Listopada 2007 Hmm, a ktos w ogole wie kiedy beda dostepne te karciochy ? Strasznie mnie przekonuja poniewaz mam monitor 17" wiec rozdzialka w jakiej gram to max 1280x1024 wiec taki radek 3850 ale z 512MB juz by mnie satysfakcjonował. Po co mi 8800GT ktory nadaje sie do 1600 rozdzialki. I tak tego nie wykorzystam a przeplace. Ciekawe po ile beda Radki po 1 dostawach. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
dymy Opublikowano 16 Listopada 2007 Zgłoś Opublikowano 16 Listopada 2007 (edytowane) Zreszta nie bron juz tego swojego 8800GT, bo po co. Kazdy wie co potrafi ;) luzik ;) z tego co widzę nowy Radek też prezentuje się świetnie. w zasadzie obie karty to odmłodzone wersje monstrualnych konstrukcji z przed kilku miesięcy i można je nazwać ostudzonymi kotletami ;) jednak na tle tego co serwowano w przedziale middle-end do tej pory to naprawdę przełom (tak tak głównie za sprawą stosunku wydajność/cena). najgorsze jest w tym wszystkim to że nv znowu nabiła klientów w butelkę bo co mają powiedzieć Ci którzy zainwestowali tego lata w serię 8600? prawie na pewno czeka ich w najbliższym czasie kolejna zmiana karty :? przełomowe jest również to że karty z tej półki dobijają do obecnych konstrukcji high-end co musi oznaczać jedno - zmianę pokoleniową na rynku GPU :) dla mnie naprawdę rewolucyjny zawsze będzie Radzio 9700 ~ pozdrawiam ;) Edytowane 16 Listopada 2007 przez dymy Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Sulaco Opublikowano 16 Listopada 2007 Zgłoś Opublikowano 16 Listopada 2007 przełomowe jest również to że karty z tej półki dobijają do obecnych konstrukcji high-end co musi oznaczać jedno - zmianę pokoleniową na rynku GPU :)niekoniecznie. imho obie firmy zmierzaja teraz w jednym kierunku - multi gpu.polityka nv moze byc taka: dajemy gt z mozliwosc laczenia dwoch, sprzeda sie wiecej tego niz jedna mocna, dajemy tez gtx/ultra, aby mozna bylo laczyc je w trzy i wiecej, tez bedzie wiekszy zysk niz sprzedaz pojedynczej karty o zblizonej mocy.podobnie bedzie w przypadku ati. era pojedynczych potworow, powoli dobiega konca, teraz zaczna scinac W i wielkosc ukladu, aby w koncu mozna bylo je "pakowac" podobnie jak obecne CPU Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
HeatheN Opublikowano 16 Listopada 2007 Zgłoś Opublikowano 16 Listopada 2007 niekoniecznie. imho obie firmy zmierzaja teraz w jednym kierunku - multi gpu.polityka nv moze byc taka: dajemy gt z mozliwosc laczenia dwoch, sprzeda sie wiecej tego niz jedna mocna, dajemy tez gtx/ultra, aby mozna bylo laczyc je w trzy i wiecej, tez bedzie wiekszy zysk niz sprzedaz pojedynczej karty o zblizonej mocy.podobnie bedzie w przypadku ati. era pojedynczych potworow, powoli dobiega konca, teraz zaczna scinac W i wielkosc ukladu, aby w koncu mozna bylo je "pakowac" podobnie jak obecne CPU2 karty=2x szybciej TYLKO WTEDY MNIE SLI ZAINTERESUJE Nie wszyscy maja plyty z sli, nie wszyscy maja kase i ochote na robienie z kompa suszary. Nie wszyscy graja w 1900x1200 IMHO SLI to jak narazie to tylko sztuka dla sztuki. Dlatego watpie ze przestana wychodzic pojedyncze "potwory" :rolleyes: Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Sulaco Opublikowano 16 Listopada 2007 Zgłoś Opublikowano 16 Listopada 2007 2 karty=2x szybciej TYLKO WTEDY MNIE SLI ZAINTERESUJE Nie wszyscy maja plyty z sli, nie wszyscy maja kase i ochote na robienie z kompa suszary. Nie wszyscy graja w 1900x1200 IMHO SLI to jak narazie to tylko sztuka dla sztuki. Dlatego watpie ze przestana wychodzic pojedyncze "potwory" :rolleyes: dla tych wszystkich wystarcza pojedyncze karty, a komu nie starczy, kupuje nastepne. ogolnie piszesz o SLI, ale dotyczy to tez CF. jezeli chodzi o plyty, to zaden problem, wystarczy kupic plyte z wieksza iloscia slotow, co na dzien dzisiejszy jest latwe - mamy spory wybor. CF ma ta przewage, ze dziala praktycznie na kazdym chipsecie, SLi wymaga ukladow rodzimych, znowu SLi ogolnie lepiej dziala niz CF, alei mam nadzieje, ze to szybko ulegnie zmianie. a ze CF/SLI ma mala "sprawnosc", to tylko kwestia dopracowania sterow, w najgorszym przypadku samej gry. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Uzurpator Opublikowano 16 Listopada 2007 Zgłoś Opublikowano 16 Listopada 2007 2 karty=2x szybciej TYLKO WTEDY MNIE SLI ZAINTERESUJE Nie wszyscy maja plyty z sli, nie wszyscy maja kase i ochote na robienie z kompa suszary. Nie wszyscy graja w 1900x1200 IMHO SLI to jak narazie to tylko sztuka dla sztuki. Dlatego watpie ze przestana wychodzic pojedyncze "potwory" :rolleyes: Dwie karty nigdy nie będą miały 2x wydajności jednej. 180%-185% to imvho max. Przy czterech kartach to 330% będzie niezłe. Ilość watów które ciągnie układ zależy od napięcia, procesu technologicznego i ilości tranzystorów, nie od wielkości układu. 1mld tranzystorów w dwóch układach będzie wymagać takiej samej suszary jak 1 mld tranzystorów w jednym układzie. Problem z CF/SLI polega na tym, że nie da się skutecznie podzielić sceny tak aby układy graficzne były równo obciążone kiedy rzeczone układy są połączone 12-16 bitową szyną synchronizacyjną. Zresztą zastanówmy się - czymże jest R600 jak nie 64 procesorami wektorowymi? A skoro da się 64, to czemu nie 128, 256 , 1734?? I jakie ma znaczenie, że te 1734 procki są w jednym pakiecie BGA czy w 10? W idealnej sytuacji mamy n układów połaczonych do wspólnej szyny pamięci korzystającej zeń w dowolny sposób - wtedy skalowanie będzie szło zgodnie z prawem Amdhala. Dopóki to się nie stanie, to CF/SLI będą się rozbijać o ten przeklęty mostek pomiędzy kartami, no chyba, że ten mostek stanie się duuuużo szybszy i pozwoli na łatwe synchronizowanie wyświetlania. Swoją drogą spodziewam się, że takie 'CF' na jednym PCB będzie skuteczniejsze niż 'CF' na dwóch kartach, bo mostek pomiędzy układami może wtedy dużo więcej. Zaprawdę powiadam wam, że GF10800GTX będzie frankensteinem na miarę Q6600 czyli zlepionymi 2 lub więcej rdzeniami g92 :> Swoją drogą zastanawiam sie, dlaczego np nie mogę zrobić 'boost'a GTXa poprzez dodanie przez SLI jednej 8600GTS? Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
dymy Opublikowano 16 Listopada 2007 Zgłoś Opublikowano 16 Listopada 2007 niekoniecznie. imho obie firmy zmierzaja teraz w jednym kierunku - multi gpu.polityka nv moze byc taka: dajemy gt z mozliwosc laczenia dwoch, sprzeda sie wiecej tego niz jedna mocna, dajemy tez gtx/ultra, aby mozna bylo laczyc je w trzy i wiecej, tez bedzie wiekszy zysk niz sprzedaz pojedynczej karty o zblizonej mocy.podobnie bedzie w przypadku ati. era pojedynczych potworow, powoli dobiega konca, teraz zaczna scinac W i wielkosc ukladu, aby w koncu mozna bylo je "pakowac" podobnie jak obecne CPU ale co niekoniecznie? nie widzisz tej obsuwy? dotychczasowe konstrukcje zmieniają półkę - jedna niżej, albo wypadają z rynku. to że idziemy w kierunku multi akurat słabo obrazuje wejście mocnej GT. bo idziemy w kierunku multi na jednej karcie - tak jak z procami - zieloni i czerwonie już przecież zapowiedzieli podwójne układy na jednym PCB. jeszcze inna bajka to wielordzeniowe GPU - ciekawe czy ktoś już pracuje nad czymś podobnym? prosze mnie oświecić ;) z drugiej strony odsuwają się prognozy dotyczące zaniku wyspecjalizowanych GPU na rzecz integracji bardzo wydajnego rdzenia graficznego z CPU/MBO. popularyzacja multi w pojęciu CF czy SLI itp. to kwestia dostępności dla przeciętnego portfela - przecież 3dfx wprowadził to rozwiązanie prawie równo 10 lat temu :) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
MariuszDW Opublikowano 16 Listopada 2007 Zgłoś Opublikowano 16 Listopada 2007 Why DX10.1 matters to you Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
caillain Opublikowano 16 Listopada 2007 Zgłoś Opublikowano 16 Listopada 2007 Wydaje mi sie,ze mozemy miec powtorke sytuacji z gf6 i ps3.0, tzn w momencie gdy dx10.1 wejdzie do uzytku te grafy beda za slabe by zapewnic w nim plynnosc. Btw. Na poczatku przyszlego tygodnia powinien byc dostepny his 3870 za 199e - info za komplett.ie Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
RaKLeZ Opublikowano 16 Listopada 2007 Zgłoś Opublikowano 16 Listopada 2007 Fotki z Warszawy widzieli?;) http://www.fudzilla.com/index.php?option=c...50&Itemid=1 http://www.fudzilla.com/index.php?option=c...1&Itemid=34 http://www.techenclave.com/forums/amd-790f...own-101249.html BTW: Warsaw AMD Event? rozumiem, ze to zamknieta impreza byla, ktos ma wiecej info? Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Outlander Opublikowano 16 Listopada 2007 Zgłoś Opublikowano 16 Listopada 2007 Patrz: benchmark.pl Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
naxt Opublikowano 16 Listopada 2007 Zgłoś Opublikowano 16 Listopada 2007 luzik ;) z tego co widzę nowy Radek też prezentuje się świetnie. w zasadzie obie karty to odmłodzone wersje monstrualnych konstrukcji z przed kilku miesięcy i można je nazwać ostudzonymi kotletami ;) jednak na tle tego co serwowano w przedziale middle-end do tej pory to naprawdę przełom (tak tak głównie za sprawą stosunku wydajność/cena). najgorsze jest w tym wszystkim to że nv znowu nabiła klientów w butelkę bo co mają powiedzieć Ci którzy zainwestowali tego lata w serię 8600? prawie na pewno czeka ich w najbliższym czasie kolejna zmiana karty :? przełomowe jest również to że karty z tej półki dobijają do obecnych konstrukcji high-end co musi oznaczać jedno - zmianę pokoleniową na rynku GPU :) dla mnie naprawdę rewolucyjny zawsze będzie Radzio 9700 ~ pozdrawiam ;)dziwne bo ja zainwestowalem w 8600GT i nie czuje sie nabity w butelke,jestem bardzo zadowolony,karta w sam raz do moich potrzeb-bardzo tania z potencjalem OC.Moge we wszystko pograc na high w 1024x768 i to mi wystarcza a palit 8600Gt kosztuje 320zł :D Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Byron Opublikowano 16 Listopada 2007 Zgłoś Opublikowano 16 Listopada 2007 Patrz: benchmark.pl A tak zrzut ekranu z GPU-Z z nowym Phenomem: co ma jedno do drugiego to nie wiem :P , ale ja sie nie znam:P Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Michael86 Opublikowano 16 Listopada 2007 Zgłoś Opublikowano 16 Listopada 2007 Na poczatku przyszlego tygodnia powinien byc dostepny his 3870 za 199e - info za komplett.ie czyli karty będą po 200euto wiec na polskie około 720zł....więc cena z grala 760zł bardzo dobra :D teraz tylko czekać na dostawy :) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
krzysiek9920 Opublikowano 16 Listopada 2007 Zgłoś Opublikowano 16 Listopada 2007 (edytowane) Fotki z Warszawy widzieli?;) http://www.fudzilla.com/index.php?option=c...50&Itemid=1 http://www.fudzilla.com/index.php?option=c...1&Itemid=34 http://www.techenclave.com/forums/amd-790f...own-101249.html BTW: Warsaw AMD Event? rozumiem, ze to zamknieta impreza byla, ktos ma wiecej info? Cholera, strasznie długie są.... Ile te "gnojki" mają cm? Bo od 8800GTX raczej odstają rozmiarem :) A wiadomo GTX do wszystkich obudów nie wchodził :D Edytowane 16 Listopada 2007 przez krzysiek9920 Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
ptys Opublikowano 16 Listopada 2007 Zgłoś Opublikowano 16 Listopada 2007 kiedy te x2 będą bo mnie portfel świerzbi Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
cienislaw Opublikowano 16 Listopada 2007 Zgłoś Opublikowano 16 Listopada 2007 (edytowane) stawialbym na okolice GTX, tak przynajmniej wnioskuje po fotkach. jakies 3cm za plyte wystaje. poprostu ze wzgledu na cooler na calej wielkosci pcb wydaje sie bardziej masywne niz GTX. za to po ULTRZE widac lepiej ze to ten sam kaliber. Edytowane 16 Listopada 2007 przez cienislaw Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
DrKleiner Opublikowano 16 Listopada 2007 Zgłoś Opublikowano 16 Listopada 2007 Temat o R680 http://forum.purepc.pl/index.php?showtopic=249948 Żeby nie zaśmiecać tego o RV670. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
DziubekR1 Opublikowano 16 Listopada 2007 Zgłoś Opublikowano 16 Listopada 2007 Temat o R680 http://forum.purepc.pl/index.php?showtopic=249948 Żeby nie zaśmiecać tego o RV670. Wydaje mi sie, ze ten temat nie jest potrzebny. Przeciez to te same rdzenie, wszystko sie zalicza do HD 3800series. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Nicolass Opublikowano 16 Listopada 2007 Zgłoś Opublikowano 16 Listopada 2007 Ja się śmieję, że jak sprzedam mojego 8600 i kupię 3850 to za niewlką kasę będę miał 2x szybszą kartę, miodnie ;) Ponawiam pytanie o sens 512 ramu na 19' Calowych LCD :P Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
yuucOm Opublikowano 17 Listopada 2007 Zgłoś Opublikowano 17 Listopada 2007 Ja się śmieję, że jak sprzedam mojego 8600 i kupię 3850 to za niewlką kasę będę miał 2x szybszą kartę, miodnie ;) Ponawiam pytanie o sens 512 ramu na 19' Calowych LCD :POj bardzo duży sens. Nie rozdziałka ma największy wpływ na uzycie ramu a sam rozmiar tekstur. Im nowsze gry tym zapotrzebowanie na vram wieksze. Dzis też juz jest pare takich co podchodzą pod 512 (a po modach; jak oblivion wymagają wiecej niż 512 vram ;p). Ja w 1024x768 w obku po modach miałem uzycie vramu ponad 512MB i wtedy sie grac nie dało (co chwile doczytki z dysku). Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
sideband Opublikowano 17 Listopada 2007 Zgłoś Opublikowano 17 Listopada 2007 (edytowane) Wydaje mi sie,ze mozemy miec powtorke sytuacji z gf6 i ps3.0Ke??? Między sm2.0 i sm3.0 jest duża różnica , a sm4.0 i 4.1 jak można wywnioskować z samego numerka to tylko minimalna korekta. Moge się założyć , że pod koniec 2008 będą już konkretne wiadomości o dx11 , bo niby ma zawitać w 2009. Jestem bardzo pozytywnie zaskoczony poborem prądu tych nowych kart , pobór mocy 3780 jest na poziomie 60wat. Ale , 55nm robi swoje i zoptymalizowanie architektury w postaci zmniejszenie gpu o 34mln tranzystorów w stosunku do R600 przy tych samych parametrach to duży plus dla Ati. Edytowane 17 Listopada 2007 przez sideband Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Michael86 Opublikowano 17 Listopada 2007 Zgłoś Opublikowano 17 Listopada 2007 Ke??? Między sm2.0 i sm3.0 jest duża różnica ... jaka duża róźnica?? wszystkie efekty dostępne na sm3.0 sa do uzyskania na sm2.0, więc gdzie te duże różnice?? Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
caillain Opublikowano 17 Listopada 2007 Zgłoś Opublikowano 17 Listopada 2007 Roznica jest taka, ze pod ps3.0 efekty te mozna latwiej i szybciej napisac. Co do powtorki z historii gf6xxx - chodzilo mi o to, ze w momencie gdy directx10.1 zacznie byc szerzej wykorzystywany obecne grafiki moga byc zbyt slabe by to wykorzystac. Sam zas standart to cos wiecej niz "minimalna korekta", polecam lekture z linka podanego pare postow wyzej. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Razan_r Opublikowano 17 Listopada 2007 Zgłoś Opublikowano 17 Listopada 2007 Nicolass a skąd wiesz że Twoj nForce 4 Ultra obłuzy PCI-E 2.0? No chyba że może KN9 ma PCI-E 1.1 w co wątpie. Ostatnio pisałem go gości z DFI z pytaniem czy moja DFI obłuży HD3850- powiedzieli że nie mieli jeszcze okazji testować nowych HD na płytach DFI i nie potrafią udzielić odpowiedzi. To że u mnie jest 1.0a to jestem pewien. Chciałbym aby mit o tym że PCI-E 2.0 nie chodzi na PCI-E 1.0a był mitem :D wtedy bym już sobie zakupił karcioche B-) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...