Skocz do zawartości

BezbronnyPL

Stały użytkownik
  • Liczba zawartości

    785
  • Rejestracja

  • Ostatnia wizyta

Zawartość dodana przez BezbronnyPL

  1. BezbronnyPL

    Geforce 8800 GTX / GTS

    Problemy z podkręcaniem wyjaśnia Unwinder w TYM, wątku.
  2. Przeczytaj jeszcze raz to co podałem w linkach.Niezależne zasilanie dotyczy mostka północnego(Northbrige), a nie kontrolera pamięci, jest to wyraźnie napisane.
  3. Zanim zaczniesz pisać podobne brednie ,to radze doczytać , bo wiem o czym pisze, a Tobie wydaje się, że wiesz. Po pierwsze , to kontroler pamięci jest zasilany tym samym napięciem co rdzeń.Napięcie kodowane jest kilkoma pinami, dla całego CPU, nikt do tej pory nie opracował jak traktować różne części GPU/CPU różnymi napięciami.W tej chwili istniejące rozwiązania, polegają na wyłączaniu poszczególnych bloków funkcjonalnych procesora/GPU , które w danej chwili nie pracują. Stosuje się też inne funkcje ,a mianowicie odmiennie taktuje się poszczególne bloki. Takie rozwiązanie stosuje Nvidia ,w swoich GPU (od GF7xxx) gdzie shader i geometry domain, taktowane są z rożnymi częstotliwościami.Ogranicza to niższe zużycie energii, zmniejsza temperaturę układu(co ma spory wpływ na prądy upływu). A tu masz link -> CLICK The most recent aspect of Barcelona's design that AMD revealed is how it handles power management. Although all four cores still operate on the same power plane (same voltage), Barcelona's Northbridge now runs on a separate power plane. Barcelona's core and Northbridge voltages can vary between 0.8V - 1.4V independently of one another. In a conventional platform architecture, the Northbridge and the CPU are already on separate power planes given that the Northbridge is external to the CPU. The benefit of this arrangement is that the two chips can power down independently of one another, so when the memory controller has little to do, it can power down until needed. With AMD's K8, this wasn't true as the Northbridge and CPU core(s) were on the same power plane. In Barcelona, they are separated to improve power efficiency. The individual cores still share the same reference voltage, but each core has its own PLL so that they can run at different clock speeds depending on load. While voltages of all four cores have to be equal, clock speed and thus current draw can be reduced depending on load - which will amount to power savings under normal usage conditions. Dopiero w dalszej przyszłości możliwe będzie zasilanie oddzielnie kilku rdzeni-planowane jest to w następnej generacji mobilnej platformy AMD o kodowej nazwie Griffin. -> CLICK 2 A tu->CLICK 3 Choć powinienem napisać do 10W. Jednocześnie nie oznacza to, że przejście z 3 do 8 czy 12 faz doda kolejne waty w ilości 10.To jest chyba dość oczywiste. Także poczytaj(są też obrazki) i nie zaśmiecaj wątku jakimiś wyssanymi z palca informacjami , to nie Pclab. EDIT Zapomniałem o najważniejszym linku->X-bit
  4. Nie będzie niczego takiego jak oddzielne zasilanie kontrolera , ponieważ kontroler jest wbudowany, należy go traktować jako integralną i jednakowo zasilaną część CPU .Najbardziej prawdopodobna , jest możliwość oddzielnego spowalniania każdego z kilku rdzeni, ale bez możliwości zmiany napięcia-to jest oczywiste i przewijało się w newsach. Prawdopodobnie będzie możliwe wyłączanie kolejnych faz zasilania CPU, ale tą funkcjonalność muszą już wspierać płyty główne, i nie ma możliwości by dzisiejsze mobasy miały taką funkcjonalność.Każda faza, to większe zużycie prądu (między 3 a 4 fazami może to być ok 10W).
  5. Jeżeli masz do wydania określoną sumę pieniędzy i załapiesz się cenowo na quada ,to chyba logiczne , że cztery rdzenie będą prawie zawsze lepsze od 2. Co innego gdy zakup Q6600 miałby odbywać się kosztem karty grafiki itp.ale w Twoim przypadku możesz zainwestować w 4 jajka.Korzyść z tego taka , że taki CPU może przeżyć ze 2 kolejne generacje GPU, zanim przestanie Ci wystarczać. Jeśli jesteś entuzjastą PC, to wtedy zawsze więcej=lepiej. A tutaj najnowszy test 4 vs 2 jajka na xbit labs->clik
  6. Osobiście benchmark.pl traktowałem zawsze jako witrynę komputronika.Łatwo to było zauważyć.O promowaniu Gigabyta i Creative nie ma co pisać-wystarczy przejrzeć przeróżnej maści testy/recki, by zauważyć niezwykle pochlebne opinie, często bardzo przeciętnego sprzętu. Wkurza mnie bezczelne kopiowanie -nieraz słowo w słowo- newsów z The Inquirer.Redaktorzy tego sieciowego tabloidu, mają specyficzne poczucie humoru, i często bardzo trafnie, w jednym zdaniu, potrafią opisać zawiłości świata IT . A taki benchmark.pl niewysilając sie zbytnio umieszcza/ł te newsy, bez podanego źródła, lub z notką "przeczytano na The Inq"(zamiast skopiowano). Ale ten serwis ma parę wyróżniających się cech-niezły layout, świetnie przemyślany sklep, oraz udana seria artykułów "Wybieramy karty do..." szkoda tylko ,że od dawna ten serwis ,to tak jak napisałem- witryna komputronika, banalne ,płytkie testy , liczenie na opinie użytkowników(kolejny udana rzecz w tym sklepie), to trochę za mało jak na tak znany serwis. P.S. Zabawnie wyszła sprawa z procesorem Cell obecnym w/g nich w X360.Na drugi dzień podano ,że to był taki konkurs dla najbardziej spostrzegawczych :lol2: Dobrze ,że ktoś u nich myśli jak wyjść z twarzą z takich pomyłek.
  7. BezbronnyPL

    Bioshock

    Na "ścinki" jest sposób.W opcjach sterownika trzeba włączyć >Potrójne buforowanie< , ale trzeba zaznaczyć ,że opcja ta dotyczy trybu OpenGL. Żeby wymusić Triple Buffering w D3D 9 trzeba użyć Rivy Tuner, i narzędzia D3D Overrider.Przy włączonym V-sync opcja również się przydaje -może zwiększyć nieznacznie wydajność. Osobiście mam Vsync zawsze włączone- zrywanie obrazu jest zbyt irytujące.
  8. Z linku jaki podawałem wcześniej nie wynika ,że k10 jest cienkie.Wyraźnie wspominają o kilkunasto procentowym wzroście w porównaniu do Intela. Zresztą to tylko 11 dni.I okaże co tym razem pokaże AMD.
  9. BezbronnyPL

    Nvidia G92

    Oj koleżanko, tak naprawdę powszechnie przyjmuje się ,że kontroler w Gf3/ GeForce 4 jest dwukanałowy 2x64bit, (sam również o tym wspominałem) ale gwoli ścisłości kontroler(Crossbar Memory Controller) jest 4 kanałowy tj. 4x32 bit.Z kolei w Radeonach przyjęto większe większe bloki danych 2 x64bit (dla R200).Po prostu te karty są stare i nikt od dawna nie zagłębia się w szczegóły budowy tych GPU , więc stąd nieścisłości. Zresztą do dziś wiele źródeł, opisuje kontroler w NV20/25 jako 256bit co jest kompletną bzdurą. Także nie jestem przekonany do tych 128bit na "kanał"- przynajmniej w tej generacji GPU nvidii - ponieważ mniejsze paczki danych, pozwalają na efektywniejsze zarządzanie przepływnością i co za tym idzie nasyceniem GPU danymi, bez zbędnych opóźnień. A szczegóły G92 już zaczynają pojawiać sie w sieci- szerokość szyny danych ma wynosić 256-bit .
  10. Trochę o wydajności.Co prawda szczegółowe wyniki są jeszcze pod NDA ale z tego wywiadu, rysuje się przyjemny obraz możliwości nowych procesorów AMD. Quad-Core Opteron systems had already been submitted to the benchmark organizations for testing. The results are all under NDA and will only be released on launch date, September 10, 2007. Because they are under NDA, he cannot reveal the actual results, but he gave us some interesting indications of how the Barcelona will eventually fare against an equivalent Intel processor. * 20-30% better performance overall * 170% better performance in some benchmarks More importantly, Quad-Core Opteron (Barcelona) will offer 45-85% better performance than current dual-core Opteron processors at the same power consumption and thermal dissipation. Intel quad-core processors, on the other hand, only offer 30-35% better performance (11% in floating point) than their dual-core processors with a 23-25% increase in power consumption and thermal dissipation.
  11. Musiałem na to zareagować.Na innych forach ludzie polecają to, co polecane jest na tym forum.Wystarczy zajrzeć do działów karty grafiki czy płyty główne by zauważyć , że topiki poświęcone konkretnym płytom głównym czy kartom grafiki liczą po kilkadziesiąt stron-sprawdź .Stąd wyciągane są wnioski i opinie i przedstawiane w części "co kupić". Nie spotkałem póki co na żadnym innym forum o PC podobnej ilości postów dot. konkretnie jakiegoś sprzętu, więc opinie na innych forach radzę traktować dość podejrzliwie, bo już wymiana posiadanego przez Ciebie zasilacza Na Ax W, brzmi jak porada dziecka neo, który coś tam niby wie, ale tak naprawdę woli powtarzać opinię innych, bo tak jest wygodnie i na innym forum od razu je PRO Elo. Pozdro. EDIT. Trochę słaba ta 12 -tka ale i tak zasiłka powinna dać radę-to nie noname, poza tym pozostałe linie tj 5V i 3,3V nie będą obciążane więc dla 12V powinno być więcej zapasu.
  12. BezbronnyPL

    World In Conflict

    Zassałem wczoraj demko i mnie zmasakrowało.HA! dlaczego musiałem czekać tyle czasu na coś takiego! Co do wydajności- Z tego co zauważyłem najwięcej FPS zżera post processing(bloom, z-father i inne) , najbardziej optymalne z tego -co sprawdzałem- ,to ustawienie Pixel Shaders na Low, dodatkowo ustawienie tekstur na High(tekstury jednostek) ,przy teksturach terenu Medium, jednocześnie włączając "deatailed textures/surfaces (czy jakoś tak),na kartach z 256MB pozwala na uniknięcie "przytykania" podczas przesuwania mapy. Gra nie traci wiele uroku, pojazdy(dachy ,przyczepy itd.itp) mają śliczny bumbmapping.Użycie pamieci to jakieś 236MB przy MSAAx2 i AFx2 na rozdziałce 1440x900 .Fizyka ,animacja na High , detale efektów ,szczegóły budynków itp .włączone ,zasięg widoczności Medium, Vsync -ON. To gdyby komuś nie chciało się siedzieć nad w miarę optymalnymi ustawieniami -FPS ~35 w miarę stały +/- 10 i wystarczająco komfortowy jak na 8600GT(S).
  13. Miałem Zalmana HP80 z jedną heat-pipe na GF4Ti , z tego co pamiętam musiałem dołożyć wiatraczek 1400 obr/min. ponieważ radiator parzył . Niemniej bez wiatraka spokojnie daje radę(karta działa do dziś tj. jakieś 5lat w kompie kuzyna i jest/była cały czas podkręcona). Jedyna wada ,to podniesienie temperatury w obudowie o kilka stopni , ale z tym trzeba się liczyć.
  14. A64 dałem tylko jako przykład ,wiadomo ,że przy dzisiejszych cenach 2 jajowców sens zakupu pojedynczego jest żaden.A i wgrach singiel core zaczyna pokazywać swoje słabości(najnowsze gry widać optymalizowane są po 2 jajka).Nawet na Steamie widać olbrzymi wzrost posiadaczy X2/C2D. Na pewno przyszłość do Dual (i więcej) Core , jeden wątek oddany GPU(renderer) a reszta na AI ,fizykę(ale trzeba pamiętać o akceleracji fizyki przez GPU),kod sieciowy ,dźwięk i całą resztę. Także o wydajność X2 jestem spokojny-nie mówiąc o C2D.Pozostaje czekać na testy singiel vs dual core ,w jakichś nowych grach, zwłaszcza ,że zapowiada się ich trochę.Przynajmniej będzie ciekawie. Jedynie sens zakupu Quada poddaje w wątpliwość,bowiem w aplikacjach które potrafią skorzystać z tylu rdzeni ,wzrost wydajności z każdym kolejnym dołożonym jajkiem jest coraz mniejszy.O ile z 1->2 można spodziewać się wzrostu rzędu 50-100% , to przejście z 2->4 oznacza wzrost tylko 25%-50%. Developerzy oczywiście będą piać z zachwytu nad "nowymi możliwościami" , ale póki co Quad to powiększony e-penis , a nie rzeczywista potrzeba/koniczność. Oczywiście pomijam profesjonalistów potrzebujących sporej mocy obliczeniowej, oraz entuzjastów, czy osoby ze SLI .
  15. Tylko w przypadku 1280x1024 FSAAx4 AFx8 użytkownik 8800GTX włączy sobie HDR ,wygładzanie przezroczystych tekstur ,inaczej mówiąc wszystko na max .A posiadacz 7900GTX będzie miał już problem z zachowaniem płynności w nowych grach. Płynność a "płynność" to rzecz wiadoma-każdy odbiera ją nieco inaczej.Znaczenie CPU w starszych tytułach jest większe gdyż w dużej mierze bazują na DX8.1 .Każda kolejna generacja DX to przenoszenie większej ilości zadań na GPU, DX10(to prawdziwe a nie łatane) to kolejny krok w tym kierunku.Więc byłbym ostrożny w ferowaniu wyroków jaki to super CPU, jest potrzeby do nowych gier.Bo nowe gry to niekoniecznie lepsze AI, fizyka itd(choć wymagania rosną).Far Cry jest specyficzny-spore nasycenie roślinnością, to sporo pracy dla jednostek vertex shader , jeśli GPU posiada ich niewiele, to CPU ma już co robić.Dlatego jestem ciekawy jak nowe GPU w tych samych warunkach i na tych samych ustawieniach dawałyby radę.Bo seria 8xxx jednostki VS ma sporo szybsze od 7xxx. Konsole już zostawmy :D -fakt ,ze FPP na nich zbyt wiele nie ma, ale TPP już częściej (R6V , GoW) ,jestem pewien, że zaawansowany gracz , wprawnym okiem zauważy chrupnięcia animacji w tych grach.Stosując się do założeń egiełdy musielibyśmy stwierdzić ,że na tym sprzęcie nie da się po prostu grać!Co jest nieprawdą. Dlatego nie brałbym dosłownie stanowiska egiełdy, bo kiedyś gry tworzyło 20 -kilka osób ,a teraz nad wysokobudżetową produkcją pracuje ~100 osób. Koszty wytworzenia gier są tak duże ,a jednocześnie developerzy mają stosunkowo niewiele czasu ,że optymalizacja jest traktowana po macoszemu ,więc albo godzimy się na spadki animacji -w granicach rozsądku- albo czytamy readme z wymaganiami i biegniemy do sklepu spełnić zachciankę devów. Co do testów, to zależy czy wolimy bezkompromisowe podejście egiełdy , czy zadowalamy się średnią wyciągniętą z innych stron. Pozdrawiam
  16. Jeśli by tak było , oznaczałoby że jest za słaby (w sensie nie jest w stanie dostarczyć wystarczającej ilości danych dla tak mocnego GPU).tylko pytanie czy tak by było?Bo logika podpowiada ,że tak być powinno.Ale taki 8800GTS/X jest sporo szybszy od serii 7xxx.I teraz kto sobie pogra bardziej komfortowo ?Posiadacz 8800GTX + A64@2,4Ghz czy C2D 2,4Ghz + 7900GTX? Zobacz na ten test->na Legion Hardware, nawet jeśli przyjąć ,że ich założenia nie są tak wyśrubowane jak na egiełdzie i odjąć 25% to ... Ja nie neguję potrzeby posiadania silnego CPU, tylko trochę dziwnej tezy, by pograć super płynnie w HL2 ,FC trzeba naprawdę silnego procesora(to akurat jest fakt) ,podczas gdy w nowszych i bardziej zaawansowanych grach często ten sam CPU + nowsza generacja GPU okazuje się wystarczający(zaledwie wystarczający ale jednak). Dlatego napisałem o konsolach, bo jeśli przyjąć takie założenia jak egiełda -to konsole nie nadają się do gier.
  17. BezbronnyPL

    Geforce 8600 GTS / GT

    O tym już też pisałem ;) 162.50 dla kart Quadro.
  18. Zgoda -są wymagające- ale podam taki przykład : Bierzemy takiego A64@2.4Ghz(jedno jajko) i 7900 (GT) i odpalamy Far Cry w rozdziałce 1280x1024 FSAA x4 AFx8 ,to tylko przykład ,ale takie ustawienie jest raczej częste.I teraz, badając tak wnikliwie jak egiełda, dochodzimy do wniosku ,ze ten CPU jest za słaby bo uzyskujemy średnio np. 45 FPS ,ale ze spadkami poniżej 30FPS.No ok.racja ,a teraz wrzucamy takiego 8800GTS który daje nam kopa rzędu 60FPS i teraz średnia wynosi 80FPS ze spadkami do ok.60FPS.Więc? Procesor ma duże znaczenie,ale nie przesadzajmy-jeśli przyjąć założenia egiełdy to jak wyszedł FarCry ,czy HL2 niewielu by mogło pograć-a grali i jescze byli zadowoleni,pomimo tego, że nie zdawali sobie sprawy ,że sprzęt który pozwoli komfortową rozrywkę wyjdzie za 3 lata. Nie to że sie czepiam egiełdy, mają obecnie najlepsze testy ,ale nie ze wszystkim się zgadzam. Jednocześnie zdaję sobie sprawę ,ze C2d zjada na śniadanie X2, i posiadacz GTX(SLI)-sięgnie na 100% po Intela,bo lepsze jest wrogiem dobrego bez dorabiania jakieś ideologii.
  19. BezbronnyPL

    Geforce 8600 GTS / GT

    Pisałem wcześniej o problemach z podkręcalnością na nowych sterach 16x.xx.Na 15x.xx karta kręciła się sporo lepiej.
  20. Myślę ,że za bardzo sugerujecie sie testami z egiełdy.O ile testy te są na bardzo wysokim poziomie, to z wieloma tezami można polemizować(mówię tu o artykule o znaczeniu CPU w grach). Spieszę wyjaśnić o co mi chodzi Ok. roku temu X2 (z wysokim zegarem ) ,to był szczyt możliwości i absolutny high-end, te CPU wciąż są tak samo wydajne ,choć teraz przegrywają z C2D. To, że zegar w zegar są wolniejsze o ok.25% nie oznacza ,że w ciągu roku tak dramatycznie wzrosły wymagania programów(nie liczę tutaj osób/firm dla których wydajność jest kluczowa z racji wykonywanych zadań) , dopiero część najnowszych gier potrafi zrobić "jaki taki" użytek z 2 jajek.Ale i tak wykorzystanie 2(i więcej) jajek jest jeszcze w powijakach. Można spotkać się z opiniami, że nowe gry , to zaawansowane AI , fizyka, wielokanałowy dźwięk, wysokie rozdzielczości.To prawda ale nie cała. Wiele starych gier (Half Life) miała zaawansowane AI a wymagania względem CPU niebyły zbyt duże, i to jeszcze w erze przed DX8 ,gdzie sporo rzeczy obrabiał CPU, a nie akcelerator grafiki(jeszcze nie GPU).Nawet dziś, nowe tytuły mają AI na żenująco niskim poziomie , także wbrew pozorom wzrost mocy obliczeniowej CPU niekoniecznie przekłada sie na lepsze AI , nie wspominając o skryptach ,które świetnie symulują AI . To samo tyczy się fizyki -taki Max Payne 2 miał świetną fizykę(Havoc), a gra ma już sporo lat, tytuły jak FEAR ,HL2 także korzystają z tego middleware'u, i co jak co, ale jakiegoś porażającego skoku jakościowego nie widać-co oczywiście nie znaczy, że go nie ma. Oczywiście można podejść bezkompromisowo do tematu ,jak to zrobiono na egiełdzie, ale wtedy okazałoby się ,że do perfekcyjnej gry(nie mniej niż 60FPS) potrzebujemy sprzętu ,którego nie było i nie ma -oficjalnie-do tej pory na rynku(np.wykręcony na 3Ghz C2D) W ten sposób można dojść do wniosku, że konsole również nie nadają sie do płynnej gry, gdyż na X360/PS3 doświadczeni userzy wyczuwają spadki FPS-ów!A niektóre nowe gry jak Colin DiRT działają w 30 ramkach /s. W testach na egiełdzie wystarczyłoby zamienić karty na serię 8xxx(8600GT, 8800GTS/X) ,wtedy mogłoby się okazać ,ze GPU dysponujące sporo większą mocą obliczeniową zapewniają taki skok FPS ,że nawet stosunkowo słabe CPU na tym skorzystają. Konkluzja jest taka ,że dopiero takie tytuły jak Gears of War, UT3,Crysis ,Bioshock ,Dirt zweryfikują rzeczywistą wydajność nowych CPU.
  21. Akurat te słuchawki to badziewie.Nowa seria Sennheisera , to wogóle porażka na całej linii.Jedyne godne polecenia słuchawki do sprzętu przenośnego ,to PX100(genialne) i CX-300.Obydwu modeli używam ,a HPM-ów słuchałem na SE810 -dla mało wymagającego "baso-luba" są ok.
  22. Bzdura , sprzęt musi być dostosowany do typu wykonywanej pracy, to ze jest profesjonalny nie oznacza ,że sprawdzi się w każdych warunkach.Profesjonalny, to w przypadku elektronarzędzi sprzęt wyspecjalizowany. Jeśli myślisz ,ze Makita i zielony BOSCH to ta sama klasa sprzętu ,to jesteś w dużym błędzie.BOSCH to sprzęt pół-profesjonalny, dla majsterkowiczów przeznaczony jest z kolei SKILL..Makita to sprzęt dla zawodowców -inna klasa -jej odpowiednikiem jest niebieski BOSCH. Ta którą kupiłeś jest w zupełności wystarczająca, do takich zastosowań jak opisałeś tzn.praca 2-3h dziennie. I żeby nie było-używałem głównie sprzętu HILTI, Makita ,AEG- pracowałem na wysokościach gdzie potrzebny był niezawodny ,ergonomiczny i wytrzymały sprzęt.A nie g... z hipermarketów ala kinzo,toya ,topex ,pegasus,einhell i inne.Rożnicę między sprzętami szybko poznaje się w trudnych warunkach, gdzie przemyślane rozwiązania pozwalają na wygodną i bezproblemową pracę.
  23. Jak masz 500zł, to może być kłopot z kupnem jakieś dobrej wkrętarki.W ciemno możesz brać sprzęt Makita 9,6V lub 12V (więcej raczej się nie przydaje-choć zależy jak/do czego będziesz jej używał), jest to firma ,która nie produkuje sprzętu pół-profesjonalnego , podobnie zresztą jak np.AEG (Atlas Copco/ Milwaukee).Ostatnio w Praktikerze, widziałem wkrętarkę AEG 12V za 399zł-okazja niesamowita , bo tej klasy sprzęt z reguły kosztuje od ok.700zł wzwyż. Nie pisze już o takich firmach jak HILTI, bo to ultra profesjonalny sprzęt , ale cenowo niestety odpada. Co do BOSCH-a , za 500zł to IMHO za dużo na tą firmę, rozejrzyj się za Makita/AEG , bo za zielonego Bocha nie dał bym więcej niż ~350zł.
  24. BezbronnyPL

    Geforce 8600 GTS / GT

    Co do problemów z freezami , to w moim (i nie tylko) przypadku freezy z dzwiękiem w tle spowodowane były po prostu zbyt wysokim OC.Gorzej gdy następują bez OC... Osobiście korzystam ze sterów 162.50 WHQL przeznaczonych dla kart Quadro.Działają bezproblemowo, co ciekawe, opanowano w nich problem wyciekania pamięci-zaobserwowałem to w Rainbow Six Vegas, gdzie im dłużej grałem, tym więcej pamięci karty graficznej było zajętej. Sprawdzałem za pomocą RT oraz stosunkowo starej, ale pewnej aplikacji- Video Memory Watcher.Po instalacji w/w sterów problem znikł.
  25. BezbronnyPL

    Radeon Hd 2600 XT/Pro

    He he, czytałem "kiedyś" ten test ale w wer. rosyjskiej , posługując się Google Translate(jakoś nie zauważyłem że jest wersja ang).Zastanawiałem sie kiedy ktoś go wklei malkontentom narzekającym na szynę 128bit przy każdej premierze kart z segmentu średniego-niskiego. Jakoś wciąż do niewielu trafia argument ,że GPU musi mieć zapewnioną odpowiednią przepustowość w stosunku do mocy obliczeniowej, to czy szyna ma 128, czy więcej bit- nie ma znaczenia. W testach tych dało się generalnie zauważyć ,że szyna 256bit. pozwala efektywniej dostarczać dane do GPU, co ma minimalny wpływ na wydajność.Jednak tylko w przypadku gdy zdecydujemy się to przebadać-obniżając odpowiednio takty GPU/RAM.W typowych warunkach ,gdy karta pracuje zgodnie ze specyfikacją szyna 128bit może być nawet szybsza(w przypadku 8600GT 64bity przyporządkowane są do 4 ROP),ale wciąż trzeba pamiętać ,że mamy do czynienia z kartami przeznaczonymi do gry w rozdzielczościach max 1280x1024, i to raczej bez FSAA.Moc obliczeniowa tych GPU jest zbyt niska by móc skonsumować przepustowość szyny 256bit. Jest to oczywiste nawet bez takich testów, ale dobrze, że można to komuś pokazać ,bo nie do wszystkich to dociera. Co do wydajności R2600 vs 8600gt -IMHO zakup radeona, biorąc jeszcze pod uwagę frustracje i problemy wynikające z poziomu sterowników ATI/AMD , jest kompletnie nieopłacalne.Chyba tylko dla osób przyzwyczajonych do przygód z sprzętem ATI ocena może być inna.
×
×
  • Dodaj nową pozycję...