-
Postów
1357 -
Dołączył
-
Ostatnia wizyta
-
Wygrane w rankingu
1
Treść opublikowana przez focus_
-
Nie tylko - żebyś zobaczył wyniki innych procesorów, co do wyników których masz wątpliwości. W jaki sposób można przeprowadzić testy w sposób subiektywny? O ile opinia na temat procesora MUSI być subiektywna (choć oczywiście oparta na testach), o tyle testy takie być nie mogą.
-
Procesory wypadają tak jak wypadają w rzeczywistości - chcesz, to przyjdź i sprawdź, będziesz miał okazje Phenoma II zobaczyć.
-
Zapraszam do redakcji - każdy wynik będziesz mógł sam zobaczyć, sam przetestować każdego procka - kiedy chcesz. Szefem jestem ja i testy wykonuję ja. Inna sprawa, że pokaż mi test, w którym są wyniki przeczące naszym - w dokładnie tej samej aplikacji / sposobie testu. Overclocking procesora jest kolosalnie zależny od temperatury otoczenia. Testuję bez obudowy z jednym z najlepszych xigmateców - przy 13-15 stopniach otoczenia mogę mieć 200-250 MHz więcej niż w przypadku temperatury rzędu 22-23 stopnie.
-
Pokrętne rozumowanie - to znaczy, że są aplikacje zawarte na tej liście, z których żaden redaktor na świecie nie skorzystał. Lista, którą posiadam jest dokładnie tym samym, co pokazał computerbase. NDA trzymało mnie tylko na wyniki testów i to do poniedziałku 6 rano. Całą resztę mogłem pokazać wcześniej.
-
Ja twierdziłem, że Intel wysłał do redaktorów listę aplikacji, w które wykorzystują wielowątkowe procesory. Nikt nie był zobligowany do sugerowania się nią. Ba! na 25 aplikacji użyłem 8 jednowątkowych, a wśród gier był to taki stosunek: 6 jednowątkowych na 14 gier. Pomijam kwestię, że wiele z aplikacji / gier kiepsko sobie radzi z wykorzystaniem dwóch rdzeni, a co dopiero 8 wątków. Mówię jeszcze raz - Intel nie narzucał aplikacji, w których miały być testowane procesory - wskazał jedynie te, które wykrzystują wiele rdzeni - co redaktor zrobił jego sprawa. Chciałbym zauważyć, że na computerbase jest cała jedna aplikacja / gra która nie korzysta przynajmniej z dwóch rdzeni. I żeby nie było - to samo napisałem na poprzedniej stronie tego wątku.
-
Za to mogę Cię podać do sądu i tak też zrobię. W umowie z Intelem nie ma ani słowa na temat tego, w jakich aplikacjach nalezy czy trzeba testować. Pokaż mi listę dostarczoną od Intela, na której znajdują się te aplikacje: Fireworks Corel Panorama Factory Photo Catia Maya FLAC Foobar 2000 OGG Windows Media Encoder 7Zip WinRAR Notatnik PDF Creator SuperPi Doom3 FEAR half Life 2 half Life 2 Episode Two Splinter CEll Double Agent STALKER Colin DiRT Race Driver GRID Posiłkujesz się cały czas jedną wybraną grą z danego serwisu, więc i ja tak zrobię: Odpisz mi też na wczesniejsze kwestie, na które już nie raczyłeś udzielić mi odpowiedzi. Widać gdzie masz braki. EDIT Chciałbym też zauważyć, że gry, o które bijesz pianę czyli COH oraz Far Cry 2 znajdują się na tej przekletej przez Ciebie liście. W tym momencie sam sobie przeczysz.
-
Wiesz co jest pokazane na tych wykresach? Dokładnie to samo co na każdych innych wykresach w testach procesorów (w tym i moich), czyli jak dzięki wyższej wydajności CPU uzyskujemy więcej FPS. Jeszcze stronę wcześniej promowałeś arty, w których CPU nie miało praktycznie żadnego znaczenia w końcowym wyniku.
-
O matko... Podstawowe pytanie: czy na 8600 GT będziesz gra w tej samej rozdzielczości, co na 8800 GTSie? Jeśli nie to tamten test w kwestii o której mówisz pokazuje kompletne bzdury.
-
Napiszę o tym w artykule, ale generalnie tragicznie...
-
Na prockach, które miałem było to do zrobienia tylko z delikatnym podnoszeniem napięcia.
-
To jest zwykłe skalowanie się grafiki z procesorem - nawet nie próbujesz zrozumieć tego co napisałem wyżej.
-
Cały czas próbuję Cię zmusić do lektury tamtego artykułu, po którym może zrozumiesz o co w tym chodzi. Nie mam zamiaru robić wielkiego wywodu, który jedynie będzie powieleniem tego co tam napisałem. Podam Ci ostatni przykład, po którym może zrozumiesz wreszcie gdzie tkwi Twój bład: Procesor A ma ograniczenie do 50 FPS, a procesor B do 80 FPS w tym samym miejscu Grafika 1 ma następujące wartości graniczne w tym samym miejscu w nastepujących rozdzielczościach: 1024: 45 1280: 32 1600: 25 1920: 18 Grafika 2 ma następujące wartości graniczne w tym samym miejscu w następujących rozdzielczościach: 1024: 65 1280: 48 1600: 35 1920: 26 I teraz montujemy procesor A i sprawdzamy grafikę numer 1: w żadnej rozdzielczości (poczynając od 1024, bo to nas interesuje - w 800 będzie oczywiście więcej niż te 45) procesor nas nie ograniczył Montujemy grafikę numer 2 i w rozdzielczości 1024 x 768 dostaliśmy limit procesora czyli 50 FPS, zaś w 1280 x 1024 już nie bo grafika tutaj skończyła się na 48 klatkach. Montując procesor B niezależnie od karty oraz wybranego trybu, karty osiągają swoje maksymalne wartości. Wniosek Karta 2 w trybie dla siebie charakterystycznym (zakładamy, że chcemy ponad 40 FPS) czyli w rozdzielczości 1280 x 1024 zadowala się tym samym procesorem, co karta 1 w trybie 1024 x 768, gdzie uzyskuje 45 FPS. Ograniczenie, o którym mówisz występuje wtedy gdy na jednym procesorze w rozdzielczości dajmy na to 1280 x 1024 sprawdzamy całe spektrum kart graficznych począwszy od założmy GF'a 8600 na GTX'ie 280 kończąc. "Ale to jest test, a nie realne zastosowanie" - a to są właśnie Twoje słowa. W realnym zastosowaniu szybszy procesor nie jest wymagany do szybszej karty graficznej - w teście owszem. Właśnie z tego powodu redaktorzy testujący karty graficzne zawsze są wyposażeni w możliwie szybkie jednostki, by możliwie unikać sytuacji, w której procesor nie wyrabia. Ale tutaj tkwi sedno sprawy - on będzie równie nie wyrabiał na grafice jakiejś tam w 1024 x 768, co na jakiejś innej w 1280 x 1024. Ty zmieniając (hipotetycznie) z 9600 GT, na GTX'a 260 nie grasz w tej samej rozdzielczości (np. 1024 x 768), tylko ją zwiększasz - w końcu masz szybszą grafikę. A jeśli kupiłeś grafikę szybszą po to by mieć więcej FPS, a procesor Ci na to nie pozwoli to uświadom sobie wreszcie, że nie pozwalał on tez na to przy wolniejszej grafice.
-
Aha czyli 50 FPS w wykonaniu 8600 GT to jest mniejsze obciążenie dla procesora, niż 50 FPS generowane przez GTX'a 280 - dobre LOL Oczywiście, że nie jest to konieczne. Z reguły przy różnicy w taktowaniu rzędu 20% osiągałem róznice w wydajności rzędu 18-20%. Lepszych rezultatów osiągnąć sie nie da. Wytłumacz mi na czym ten marketing w takim razie polega. To było oczywiste już w chwili premiery E8200 czyli w styczniu tego roku i od tamtego czasu sie nie zmieniło nic.
-
Kompletnie nie rozumiesz. Mówiąc tryb "charakterystyczny" mam na myśli rzeczywiście charakterystyczny, a nie taki, w którym szybsza grafika ma 60 FPS, a ta wolniejsza nawet pomimo mniejszej rozdzielczości i tak nie wyrabia powyżej 40 FPS. Dany procesor zawsze ogranicza do tej samej wartości i teraz kwestia tego, czy dana karta w danym trybie pozwoli osiągnąć ta wartość czy nie. Zakładając, że procesor ma granicę na poziomie powiedzmy 50 FPS, to (załóżmy) 9800 GTX w 1024 x 768 będzie rownie ograniczony, jak GTX-280 w 1600 x 1200. Co innego jest gdy sprawdzasz różne karty w tej samej rozdzielczości, ale to jest test,a nie realne zastosowanie. Wytłumacz mi też czym z punktu widzenia procesora różni się GTX-280 od nie wiem GF'a 8600?
-
Ty mnie kompletnie nie rozumiesz. Uparcie twierdzisz, że ja twierdzę (masło maslane), że procesor nie ma znaczenia w grach. To w takim razie co ja pokazuje na wykresach? To jest oczywiste, że procesor ma znaczenie w grach i ja to od trzech lat próbuję wyjaśnić forumowiczom z różnym skutkiem. Kwestia jest tego typu, że ma to równie duże znaczenie przy mocnej, co przy słabej karcie graficznej. No chyba, że przy słabej zadowalasz się 20 FPS'ami, a przy mocnej już musisz mieć 50, to wtedy co innego. Moje zdanie generlanie tutaj nie jest istotne. Istotne są fakty, które przedstawiłem wcześniej. Przykładowo (Gothic III): czy GTX-260 generuje więcej FPS w 1920 x 1440, jak 9800 GTX w 1600 x 1200? Nie - tyle samo, a więc nie wymaga szybszego procesora. Nikt nie gra na szybszej karcie w trybach charakterystycznych dla słabszej karty! Tak samo wolne CPU ograniczy ilość FPS na GF'ie 9600 GT (w trybie dla niego charakterystycznym) jak to samo wolne CPU zrobi to na GTx'ie 280 w trybie dla niego charakterystycznym. Z Twojego tekstu wynika, że na tym samym CPU z szybszą grafiką będzie wolniej niż na słabszej grafice - LOL
-
Przeczytaj arta, którego Ci podlinkowałem, to zrozumiesz. Popatrz - ja testowałem Nehalema i inne bardzo szybkie procesory na 9800 GTX'ie w relatywnie wysokich rozdzielczościach (najczęsciej 1280 x 1024, czesto z AA-x4) - dzisiaj segment w najlepszym wypadku "middle range", a mimo to procesory doskonale się skalowały. Jak chcesz, to mogę Ci przeprowadzić taki test, w którym Pentium Dual Core E2180 @ def nie ograniczy dwóch HD 4870 X2, a mogę też przeprowadzić taki test (w tej samej grze), w którym 8600 GT będzie ograniczane przez C2Q @ 4GHz. Myśl, a nie ślepo czytaj wykresy.
-
No i właśnie taką prezentuję na swoich wykresach w 90% przypadków - uśrednione wartości minimalne, a nie takie jakie "się udało złapać" No i to jest właśnie dowód na to, co cały czas trąbię - cieszę się, że dałeś się złapać na mój haczyk. Ten test na computerbase pokazuje nie wydajność samego CPU, a jego sprawność w kwestii dostarczania danych do karty graficznej z pamięci RAM. Szkoda, że tego zauważyć nie potrafisz.
-
Musimy pamiętać o jednej rzeczy, miałem o tym napisać w artykule, ale dyskusja wywiązała się wcześniej - wbudowany kontroler pamięci w procesor oprócz szregu zalet w postaci krótszego czasu dostepu do pamięci, a tym samym wyższej wydajności, ma również sporo wad. Chodzi o to, że de facto z punktu widzenia karty graficznej kontroler pamięci w procesorze jest gorszym rozwiązaniem niż kontroler pamięci w osobnym układzie. Czas dostepu dla niej jest dłuższy niż w przypadku tradycyjnego chipsetu, w którym zawarty jest kontroler pamięci. Stąd w najwyższych trybach jest możliwy pewien spadek wydajności. Niestety nawet astronomiczne częstotliwośći magistral QPI / HT nie są w stanie temu zaradzić. Każdy myślący jest w stanie sam powiedzieć dlaczego tak jest. Problem ten występuje od X czasu na Athlonach 64 / Phenomach, tylko jakoś nikt tego nie zauważał - tam również wydajność grafiki w specyficznych sytuacjach jest niższa niż w analogicznym zestawie na "starej" platformie Intela. Tylko nigdy tego nie jest się w stanie wykazać ze względu na zupełnie różną budowę platform Intela i AMD i stąd wnioski nigdy nie mogły być jednoznaczne, bo zawsze można było stwierdzić, że jest to wina czegoś tam innego. Problem będzie występował zawsze, ale nie wiadomo w jakim stopniu na i7. Właśnie to wyszło w Assassinie oraz w SCDA w moich testach - te dwie gry używają bardzo dużych tekstur, przez co transfer między pamięcią RAM, a grafiką jest bardzo duży, co automatycznie powoduje, ze problem wypływa na powierzchnię. Niemniej dopóki nie sprawdzi się tego na powiedzmy 3 różnych płytach głównych nie można tego jednoznacznie określić. A to z tego powodu, że bad axe na i975X, czyli referencyjna płyta pod Core 2 Duo również miała przypadłość obniżania wydajności łacza PCI-E (nie zawsze poprzez zmniejszenie szerokości linii). Ja czekam na płytę główną (jakąś inną niż Intel) i będę to sprawdzał bardzo dokładnie, ale wszystkie sytuacje, w których Core i7 wypada słabiej od starszej architektury są najpewniej powodem nie wydajności procesora jako takiego, a wbudowanego kontrolera pamięci (jako sam fakt, a nie jego sprawności, której mu odmówić nie można). I właśnie dlatego uważam, że test na computerbase można o kant pupy rozbić, bo nie pokazuje tego co choćby nawet na H ent... Core i7 jako sam procesor nie może być wolniejszy od swoich poprzedników, gdyż pod każdym względem jest od nich lepszy. Nie licząc tej anomalii z wbudowanym kontrolerem pamięci, którego uniknąć się nie dało. EDIT Zobaczcie dokładnie na ten wykres: A dokładniej na wyniki Phenomów. 33 FPSy! Byle E5200 / E7200 mają tutaj po 40 FPS w tym samym miejscu. EDIT2 przeprowadziłem test na 3 GHz Phenomie (zwiększając jedynie mnożnik, bo o to właśnie chodzi) - niecałe 35 FPS.
-
Co się zmieniło? Sposób generowania obrazu przez komputery? Teraz coś jest realizowane przez procesor, co wcześniej grafika robiła? Dzisiaj mogę zrobić taki sam test i wyjdzie dokładnie to samo. Ja w żaden sposób nie twierdzę, że mocniejszy procesor nie pozwoli na uzyskanie wyższych wartości minimalnych, ale zaobserwowałbyś to samo mając słabszą kartę graficzną (wymieniając procesor). A to, że przy SLI / CF będziesz miał miejscami wolniej to jest fakt oczywisty i niezależny od mocy CPU - no chyba że procesory byłyby 10 razy szybsze niż są obecnie, a grafiki byłyby w tym samym miejscu co teraz. Ale wówczas producenci gier by to skrzętnie wykorzystali. Ta, bo ja nie mam co robić tylko szukać miejsc testu równolegle na trzech zestawach komputerowych i wybierać takie, w których lepiej wypada określony procesor. Widać jak masz małe pojęcie na temat tego jak się testuje i jakie w ogóle występują sytuacje w grach. Zobacz dobrze na różnice między i7 965, a i7 940 - jakim sposobem przy różnicy w częstotliwości rzędu 9%, różnica w wydajności wynosi 21%? Na pooprzednie zarzuty w kwestii zupełnie złego dobrania miejsc testu np. w crysisie, czy większości innych gier nie raczysz odpisać. Widać jak na dłoni, że testują w tych samych miejscach, co karty graficzne, co jest zupełnym nonsensem, bo tak się nie robi. Test karty graficznej zawsze jest tak zrobiony by na mapie się możliwie najmniej działo - np. jedzie się trasę bez przeciwników, a nie jak normalnie z nimi. Tak samo gry FPS testuje się raczej w miejscach, gdzie jest pusto, po to by zmniejszyć obciążenie procesora. Jeśli w takich testach mają być sprawdzane procesory, to ja dziękuje.
-
Assassins Creed zgadza się - Core i7 jest wolniejszy od Core 2 Quada tak samo taktowanego Crysis - trudno porównywać, gdy u nich róznice między procesorami są zupełnie zatarte przez brak umiejętności wyszukania odpowiedniego miejsca testowego - różnica między C2Q 2,66 Ghz, a C2Q 3,2 Ghz (20% w zegarze) wynosi 1%, czyli na granicy niepewności pomiarowej. Race Driver GRID to samo - różnice minimalne przy sporej różnicy w taktowaniu w obrębie tej samej rodziny CPU Nie inaczej w World in Conflict :lol2: Powiem tak - w jaki sposób można się sugerować wynikami testu w relacjach między procesorami, gdy różnica między C2Q Q9450 (2,66 GHz), a C2Q Q9770 (3,2 GHz) wynosi 0,6%? Bo właśnie tyle wynosi róznica w grze World in Conflict? To, że im wyszedł niższy wynik na Core i7 nie jest wynajmniej winą procesora, co bardzo wyraźnie widać na ich wykresach.
-
Oczywiście im niższa rozdzielczość, tym mniejsze znaczenie karty graficznej, ale nie stanowi żadnego problemu by przygotować test procesorów w taki sposób, by testować go w wysokiej rozdzielczości. Zobacz w jakich trybach jest mój test - dobrałem takie rozdzielczości, w których 9800 GTX zapewnia płynność. Trudno żebym testował Crysisa w 1920 x 1440, gdzie i tak ta grafika nie zapewni odpowiedniej wydajności. Oczywiście, że tak nie jest. Do mocnej grafiki nie jest wymagany mocniejszy CPU. Relacje między grafiką, a CPU.
-
Gadanie... W realnych aplikacjach za wyjątkiem jakiś wyjątkowych sytuacji nie ma jakiegoś specjalnego zysku na rzecz trzykanałowego kontrolera pamięci. TEST
-
A to co Ty piszesz to sobie pisz. Twoje wypowiedzi odkąd pamiętam zawsze były skierowane anty-egielda nawet jeśli się zgadzałeś z opiniami lub nie byłeś w stanie ich podważyć (tyczy się to zarówno moich artykułów jak i moich kolegów z redakcji). Zacytowałem powyżej co napisałem w kwestii HD 4850 i GTS'a 512. Po pierwsze wtedy sytuacja cenowa wyglądała inaczej - dzisiaj wygląda to jeszcze korzystniej dla ATi, a po drugie poleciłem i to bardzo Radeona HD 4850, jako karta naprawdę wydajna i korzystna cenowo.
-
Aż przeczytałem swoje podsumowanie jeszcze raz i nie widze nigdzie by było napisane, że 8800 GTS jest "lepszy". Owszem bez wygładzania krawędzi statystycznie wypadł lepiej - ale to jest statystyka, która na równi stawia wygraną w Xpand Rally Xtreme w rozdzielczości 1920 x 1440 AA-x4 Anizo-x16 typu 100 vs. 80 FPS, jak przegraną w Crysis w 1024 x 768 AA-OFF Anizo-OFF na poziomie 25 vs. 30 FPS. W podsumowaniu jest wyraźnie napisane: I tutaj jest wyraźnie wskazane, że Radeon jest produktem KONKURENCYJNYM i z całą pewnością nie gorszym niż wówczas wyprzedawane 8800 GTS'y 512. Nie wiem jak dzisiaj wygląda sprawa ze stanami magazynowymi 8800 GTS'a 512, ale 9800 GTX cenowo nie jest w stanie konkurować z Radeonem, więc przy tej samej wydajności jest gorszą propozycją - chyba, że komuś zależy na hałasie, to sytuacja się komplikuje.
-
DaRoN napisał recenzję niedawno poruszanych tutaj pamięci :) Chaintech ApogeeGT 2x2GB PC2-8500 (R2-1066-4GDGT) Mam nadzieję, że się nie orbazi jak ja za niego posta napiszę :)