Gość dwaIP Opublikowano 3 Listopada 2008 Zgłoś Opublikowano 3 Listopada 2008 (edytowane) A kto Ci powiedział, że Intel w ogóle narzuca warunki testów? Jedyne co robi, to wskazuje listę aplikacji, która korzysta z więcej niż jednego rdzenia. Taka lista zawiera kilkadziesiąt pozycji. Nawet gdybyśmy zsumowali wszystkie aplikacje z wszystkich serwisów, to i tak znajdziesz takie, które na tej liście są a nie zostały wykorzystane przez redaktorów. Zresztą jakby Intel to miał kontrolować, to np. by nie było np: Splinter Cella Double Agent, czy Dirt'a, które to gry po prostu źle działają na tych procesorach. Nie rozumiem też, co jest takiego "cool" w tescie computerbase w WiC'u. To, że ich test silnie siedzi na karcie graficznej? Masz na myśli tą listę: http://www.computerbase.de/bildstrecke/23169/60/ Samo narzucenie jakiejś listy aplikacji to już narzucenie warunków. Nie wszystkie serwisy dostają CPU w dniu premiery i te słabsze dają dodatkowo ciała w obawie że następnym razem nie dostaną. Łatwiej będzie podać na przykładzie innego testu co nie jest "cool" http://www.egielda.com.pl/?str=art&id=4601-16 Powyższy test sugeruje że nowa zabawka Intela to top CPU do gier co jest sprzeczne z wynikami ComputerBase nawet w identycznych grach. Edytowane 3 Listopada 2008 przez dwaIP Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
focus_ Opublikowano 3 Listopada 2008 Zgłoś Opublikowano 3 Listopada 2008 Masz na myśli tą listę: 3137149[/snapback] Łatwiej będzie podać na przykładzie innego testu co nie jest "cool" http://www.egielda.com.pl/?str=art&id=4601-16 Powyższy test sugeruje że nowa zabawka Intela to top CPU do gier co jest sprzeczne z wynikami ComputerBase nawet w identycznych grach. Assassins Creed zgadza się - Core i7 jest wolniejszy od Core 2 Quada tak samo taktowanego Crysis - trudno porównywać, gdy u nich róznice między procesorami są zupełnie zatarte przez brak umiejętności wyszukania odpowiedniego miejsca testowego - różnica między C2Q 2,66 Ghz, a C2Q 3,2 Ghz (20% w zegarze) wynosi 1%, czyli na granicy niepewności pomiarowej. Race Driver GRID to samo - różnice minimalne przy sporej różnicy w taktowaniu w obrębie tej samej rodziny CPU Nie inaczej w World in Conflict :lol2: Powiem tak - w jaki sposób można się sugerować wynikami testu w relacjach między procesorami, gdy różnica między C2Q Q9450 (2,66 GHz), a C2Q Q9770 (3,2 GHz) wynosi 0,6%? Bo właśnie tyle wynosi róznica w grze World in Conflict? To, że im wyszedł niższy wynik na Core i7 nie jest wynajmniej winą procesora, co bardzo wyraźnie widać na ich wykresach. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość dwaIP Opublikowano 3 Listopada 2008 Zgłoś Opublikowano 3 Listopada 2008 ... Assassins Creed zgadza się - Core i7 jest wolniejszy od Core 2 Quada tak samo taktowanego Crysis - trudno porównywać, gdy u nich róznice między procesorami są zupełnie zatarte przez brak umiejętności wyszukania odpowiedniego miejsca testowego - różnica między C2Q 2,66 Ghz, a C2Q 3,2 Ghz (20% w zegarze) wynosi 1%, czyli na granicy niepewności pomiarowej. Race Driver GRID to samo - różnice minimalne przy sporej różnicy w taktowaniu w obrębie tej samej rodziny CPU Nie inaczej w World in Conflict :lol2: Powiem tak - w jaki sposób można się sugerować wynikami testu w relacjach między procesorami, gdy różnica między C2Q Q9450 (2,66 GHz), a C2Q Q9770 (3,2 GHz) wynosi 0,6%? Bo właśnie tyle wynosi róznica w grze World in Conflict? To, że im wyszedł niższy wynik na Core i7 nie jest wynajmniej winą procesora, co bardzo wyraźnie widać na ich wykresach. Sugerujesz brak umiejętności i zacieranie różnic w sytuacji gdy różnice te doskonale widać poprzez minimalne FPS dużo lepiej niż przez wybrany "obiektywnie" fragment gry.. Przykładowo tu na przykładzie Company of Heroes różnica minimum FPS to około 50% lepszy wynik E8600 niż najmocniejszego i7 który notuje wręcz utratę płynności. Po pokręceniuobu CPU różnica się jeszcze powiększy, zwłaszcza przy mocniejszej karcie. http://www.computerbase.de/artikel/hardwar...mpany_of_heroes Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Maniakalny Opublikowano 3 Listopada 2008 Zgłoś Opublikowano 3 Listopada 2008 (edytowane) ceny c2d powinny poleciec mysle w niedlugim czasie core i7 920 bedzie chyba w tej samej cenie co e8600 na premierze ja juz je moge mieć, pytanie jakie marże naliczą sklepy ;) Edytowane 3 Listopada 2008 przez Maniakalny Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
czolo7 Opublikowano 3 Listopada 2008 Zgłoś Opublikowano 3 Listopada 2008 niby ceny maja byc znane 17tego a w KT juz sa podane... Intel Core i7 965 Extreme Edition 3,20 GHz (S1366/45nm) BOX 4049,- Intel Core i7 940 2,93 GHz (S1366/45nm) BOX 2189,- Intel Core i7 920 2,66 GHz (S1366/45nm) BOX 1149,- no to teraz sie zacznie :) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Arni Opublikowano 4 Listopada 2008 Zgłoś Opublikowano 4 Listopada 2008 Przyjemny art bez przynudzania btw imo ceny po miesiącu 5% \/ a 10% po dwóch ;) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
TomaszPaweł Opublikowano 4 Listopada 2008 Zgłoś Opublikowano 4 Listopada 2008 (edytowane) Oczywiście, że tak nie jest. Do mocnej grafiki nie jest wymagany mocniejszy CPU. Relacje między grafiką, a CPU. Przykro mi Cię uświadomić, ale sytuacja od tamtego testu się zmieniła, jeśli chodzi o SLI i 3SLI... i najnowsze karty graficzne. Jeśli masz wolne CPU i SLI to może się tak zdażyć że w SLI będzie wolniej niż na pojedyńczej karcie. Naprawdę zachęcam przeczytaj sobie test na Guru.... Ja ze zwojej strony powniem, że gdy wymieniłem A643200 na Q6600@3300 to w grach minimalny FPS mi nieźle podskoczył... Edytowane 4 Listopada 2008 przez TomaszPaweł Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
focus_ Opublikowano 4 Listopada 2008 Zgłoś Opublikowano 4 Listopada 2008 Przykro mi Cię uświadomić, ale sytuacja od tamtego testu się zmieniła, jeśli chodzi o SLI i 3SLI... i najnowsze karty graficzne. Jeśli masz wolne CPU i SLI to może się tak zdażyć że w SLI będzie wolniej niż na pojedyńczej karcie. Naprawdę zachęcam przeczytaj sobie test na Guru.... Ja ze zwojej strony powniem, że gdy wymieniłem A643200 na Q6600@3300 to w grach minimalny FPS mi nieźle podskoczył... Co się zmieniło? Sposób generowania obrazu przez komputery? Teraz coś jest realizowane przez procesor, co wcześniej grafika robiła? Dzisiaj mogę zrobić taki sam test i wyjdzie dokładnie to samo. Ja w żaden sposób nie twierdzę, że mocniejszy procesor nie pozwoli na uzyskanie wyższych wartości minimalnych, ale zaobserwowałbyś to samo mając słabszą kartę graficzną (wymieniając procesor). A to, że przy SLI / CF będziesz miał miejscami wolniej to jest fakt oczywisty i niezależny od mocy CPU - no chyba że procesory byłyby 10 razy szybsze niż są obecnie, a grafiki byłyby w tym samym miejscu co teraz. Ale wówczas producenci gier by to skrzętnie wykorzystali. Sugerujesz brak umiejętności i zacieranie różnic w sytuacji gdy różnice te doskonale widać poprzez minimalne FPS dużo lepiej niż przez wybrany "obiektywnie" fragment gry.. Ta, bo ja nie mam co robić tylko szukać miejsc testu równolegle na trzech zestawach komputerowych i wybierać takie, w których lepiej wypada określony procesor. Widać jak masz małe pojęcie na temat tego jak się testuje i jakie w ogóle występują sytuacje w grach. Przykładowo tu na przykładzie Company of Heroes różnica minimum FPS to około 50% lepszy wynik E8600 niż najmocniejszego i7 który notuje wręcz utratę płynności. Po pokręceniuobu CPU różnica się jeszcze powiększy, zwłaszcza przy mocniejszej karcie. http://www.computerbase.de/artikel/hardwar...mpany_of_heroes Zobacz dobrze na różnice między i7 965, a i7 940 - jakim sposobem przy różnicy w częstotliwości rzędu 9%, różnica w wydajności wynosi 21%? Na pooprzednie zarzuty w kwestii zupełnie złego dobrania miejsc testu np. w crysisie, czy większości innych gier nie raczysz odpisać. Widać jak na dłoni, że testują w tych samych miejscach, co karty graficzne, co jest zupełnym nonsensem, bo tak się nie robi. Test karty graficznej zawsze jest tak zrobiony by na mapie się możliwie najmniej działo - np. jedzie się trasę bez przeciwników, a nie jak normalnie z nimi. Tak samo gry FPS testuje się raczej w miejscach, gdzie jest pusto, po to by zmniejszyć obciążenie procesora. Jeśli w takich testach mają być sprawdzane procesory, to ja dziękuje. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Michaelius Opublikowano 4 Listopada 2008 Zgłoś Opublikowano 4 Listopada 2008 Posłuże się cytatem :) Now if you saw our Core i7 synthetic benchmarks article, you can see where these low resolution Lost Planet timedemo scores look extremely similar. The i7 shows to be over 35% faster than the Core 2 on a clock-for-clock basis. Better yet, we are seeing 40% scaling simply moving from a dual core processor to a quad core processor. Lost Planet is without a doubt the best scaling game engine I have had the pleasure of being exposed to bar none. The problem is, who the hell plays a game at 640x480 anymore? http://enthusiast.hardocp.com/article.html...W50aHVzaWFzdA== Zobaczcie sobie w artykule wykresy z FC2 gdzie i7 miazdzy core 2 w niskich rozdzialkach by przegrac z nim przy wlaczeniu czegos na poziomie 1920 lub 2560 Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
focus_ Opublikowano 4 Listopada 2008 Zgłoś Opublikowano 4 Listopada 2008 (edytowane) Posłuże się cytatem :) http://enthusiast.hardocp.com/article.html...W50aHVzaWFzdA== Zobaczcie sobie w artykule wykresy z FC2 gdzie i7 miazdzy core 2 w niskich rozdzialkach by przegrac z nim przy wlaczeniu czegos na poziomie 1920 lub 2560 Musimy pamiętać o jednej rzeczy, miałem o tym napisać w artykule, ale dyskusja wywiązała się wcześniej - wbudowany kontroler pamięci w procesor oprócz szregu zalet w postaci krótszego czasu dostepu do pamięci, a tym samym wyższej wydajności, ma również sporo wad. Chodzi o to, że de facto z punktu widzenia karty graficznej kontroler pamięci w procesorze jest gorszym rozwiązaniem niż kontroler pamięci w osobnym układzie. Czas dostepu dla niej jest dłuższy niż w przypadku tradycyjnego chipsetu, w którym zawarty jest kontroler pamięci. Stąd w najwyższych trybach jest możliwy pewien spadek wydajności. Niestety nawet astronomiczne częstotliwośći magistral QPI / HT nie są w stanie temu zaradzić. Każdy myślący jest w stanie sam powiedzieć dlaczego tak jest. Problem ten występuje od X czasu na Athlonach 64 / Phenomach, tylko jakoś nikt tego nie zauważał - tam również wydajność grafiki w specyficznych sytuacjach jest niższa niż w analogicznym zestawie na "starej" platformie Intela. Tylko nigdy tego nie jest się w stanie wykazać ze względu na zupełnie różną budowę platform Intela i AMD i stąd wnioski nigdy nie mogły być jednoznaczne, bo zawsze można było stwierdzić, że jest to wina czegoś tam innego. Problem będzie występował zawsze, ale nie wiadomo w jakim stopniu na i7. Właśnie to wyszło w Assassinie oraz w SCDA w moich testach - te dwie gry używają bardzo dużych tekstur, przez co transfer między pamięcią RAM, a grafiką jest bardzo duży, co automatycznie powoduje, ze problem wypływa na powierzchnię. Niemniej dopóki nie sprawdzi się tego na powiedzmy 3 różnych płytach głównych nie można tego jednoznacznie określić. A to z tego powodu, że bad axe na i975X, czyli referencyjna płyta pod Core 2 Duo również miała przypadłość obniżania wydajności łacza PCI-E (nie zawsze poprzez zmniejszenie szerokości linii). Ja czekam na płytę główną (jakąś inną niż Intel) i będę to sprawdzał bardzo dokładnie, ale wszystkie sytuacje, w których Core i7 wypada słabiej od starszej architektury są najpewniej powodem nie wydajności procesora jako takiego, a wbudowanego kontrolera pamięci (jako sam fakt, a nie jego sprawności, której mu odmówić nie można). I właśnie dlatego uważam, że test na computerbase można o kant pupy rozbić, bo nie pokazuje tego co choćby nawet na H ent... Core i7 jako sam procesor nie może być wolniejszy od swoich poprzedników, gdyż pod każdym względem jest od nich lepszy. Nie licząc tej anomalii z wbudowanym kontrolerem pamięci, którego uniknąć się nie dało. EDIT Zobaczcie dokładnie na ten wykres: A dokładniej na wyniki Phenomów. 33 FPSy! Byle E5200 / E7200 mają tutaj po 40 FPS w tym samym miejscu. EDIT2 przeprowadziłem test na 3 GHz Phenomie (zwiększając jedynie mnożnik, bo o to właśnie chodzi) - niecałe 35 FPS. Edytowane 4 Listopada 2008 przez focus_ Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość dwaIP Opublikowano 4 Listopada 2008 Zgłoś Opublikowano 4 Listopada 2008 Ta, bo ja nie mam co robić tylko szukać miejsc testu równolegle na trzech zestawach komputerowych i wybierać takie, w których lepiej wypada określony procesor. Widać jak masz małe pojęcie na temat tego jak się testuje i jakie w ogóle występują sytuacje w grach.Jakiej ideologii byś do tego nie dorabiał to i tak pozostanie oczywiste że o przydatności CPU do gry decyduje minimalna ilość FPS a nie jakieś FPS z wybranych fragmentów. Zobacz dobrze na różnice między i7 965, a i7 940 - jakim sposobem przy różnicy w częstotliwości rzędu 9%, różnica w wydajności wynosi 21%? ... Jeśli nie widzisz na wykresie różnicy 30% częstotliwości QPI pomiędzy i7 965 i i7 940 to powinieneś sprawić sobie soczewki na oczy. Do wykresu na którym i7 965 wypada gorzej w jakimś teście gry od X4 9950 pewnie będziesz potrzebował soczewek o podwójnej ogniskowej (takich z dwoma focus) http://www.bit-tech.net/hardware/2008/11/0...45-965-review/5 Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
focus_ Opublikowano 4 Listopada 2008 Zgłoś Opublikowano 4 Listopada 2008 Jakiej ideologii byś do tego nie dorabiał to i tak pozostanie oczywiste że o przydatności CPU do gry decyduje minimalna ilość FPS a nie jakieś FPS z wybranych fragmentów. No i właśnie taką prezentuję na swoich wykresach w 90% przypadków - uśrednione wartości minimalne, a nie takie jakie "się udało złapać" Jeśli nie widzisz na wykresie różnicy 30% częstotliwości QPI pomiędzy i7 965 i i7 940 to powinieneś sprawić sobie soczewki na oczy. Do wykresu na którym i7 965 wypada gorzej w jakimś teście gry od X4 9950 pewnie będziesz potrzebował soczewek o podwójnej ogniskowej (takich z dwoma focus) http://www.bit-tech.net/hardware/2008/11/0...45-965-review/5 No i to jest właśnie dowód na to, co cały czas trąbię - cieszę się, że dałeś się złapać na mój haczyk. Ten test na computerbase pokazuje nie wydajność samego CPU, a jego sprawność w kwestii dostarczania danych do karty graficznej z pamięci RAM. Szkoda, że tego zauważyć nie potrafisz. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
TomaszPaweł Opublikowano 4 Listopada 2008 Zgłoś Opublikowano 4 Listopada 2008 (edytowane) Co się zmieniło? Sposób generowania obrazu przez komputery? Teraz coś jest realizowane przez procesor, co wcześniej grafika robiła? Dzisiaj mogę zrobić taki sam test i wyjdzie dokładnie to samo. Ja w żaden sposób nie twierdzę, że mocniejszy procesor nie pozwoli na uzyskanie wyższych wartości minimalnych, ale zaobserwowałbyś to samo mając słabszą kartę graficzną (wymieniając procesor). A to, że przy SLI / CF będziesz miał miejscami wolniej to jest fakt oczywisty i niezależny od mocy CPU - no chyba że procesory byłyby 10 razy szybsze niż są obecnie, a grafiki byłyby w tym samym miejscu co teraz. Ale wówczas producenci gier by to skrzętnie wykorzystali. W takim razie wytłumacz mi ten wykres: Crysis Warhead is new in our benchmark suite. Our image quality settings -- we opt for the gamers mode. However, we select DirectX 10 mode as well to allow for way more hefty shader code which will take a hefty toll on the GPU, yet also frame buffer utilization. Level Ambush Code path DX10 Anti Aliasing 2xMSAA In game Quality mode Gamer Wykres Jak nie potrafisz to Ci pomogę: Karty graficzne są ograniczane przez wolny CPU... Edytowane 4 Listopada 2008 przez TomaszPaweł Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
focus_ Opublikowano 4 Listopada 2008 Zgłoś Opublikowano 4 Listopada 2008 (edytowane) W takim razie wytłumacz mi ten wykres:Przeczytaj arta, którego Ci podlinkowałem, to zrozumiesz. Popatrz - ja testowałem Nehalema i inne bardzo szybkie procesory na 9800 GTX'ie w relatywnie wysokich rozdzielczościach (najczęsciej 1280 x 1024, czesto z AA-x4) - dzisiaj segment w najlepszym wypadku "middle range", a mimo to procesory doskonale się skalowały. Jak chcesz, to mogę Ci przeprowadzić taki test, w którym Pentium Dual Core E2180 @ def nie ograniczy dwóch HD 4870 X2, a mogę też przeprowadzić taki test (w tej samej grze), w którym 8600 GT będzie ograniczane przez C2Q @ 4GHz. Myśl, a nie ślepo czytaj wykresy. Edytowane 4 Listopada 2008 przez focus_ Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
TomaszPaweł Opublikowano 4 Listopada 2008 Zgłoś Opublikowano 4 Listopada 2008 (edytowane) Przeczytaj arta, którego Ci podlinkowałem, to zrozumiesz. Popatrz - ja testowałem Nehalema i inne bardzo szybkie procesory na 9800 GTX'ie w relatywnie wysokich rozdzielczościach (najczęsciej 1280 x 1024, czesto z AA-x4) - dzisiaj segment w najlepszym wypadku "middle range", a mimo to procesory doskonale się skalowały. Jak chcesz, to mogę Ci przeprowadzić taki test, w którym Pentium Dual Core E2180 @ def nie ograniczy dwóch HD 4870 X2, a mogę też przeprowadzić taki test (w tej samej grze), w którym 8600 GT będzie ograniczane przez C2Q @ 4GHz. Myśl, a nie ślepo czytaj wykresy. No właśnie, ty testujesz a ja gram i ja widziałem że mój słaby CPU ograniczał GPU. I widziałem rróżnicę po wymianie na mocniejszy. I taka jest prawda. Spłaszczenie wyników oznacza że wąskim gardłem jest CPU. Nie obraź się ale 9800GTX jest trochę wolniejsza od GTX280 szczególnie w 3 SLI i trochę mniej potrzebuje danych przygotowanych przez procesor... Dlaczego szybkie karty graficzne potrzebują szybkich CPU? Bo wolne CPU ograniczają liczbę generowanych przez GPU FPS. Takie jest moje stanowisko. Oczywiście masz prawo się z nim nie zgodzić. Edytowane 4 Listopada 2008 przez TomaszPaweł Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
focus_ Opublikowano 4 Listopada 2008 Zgłoś Opublikowano 4 Listopada 2008 (edytowane) No właśnie, ty testujesz a ja gram i ja widziałem że mój słaby CPU ograniczał GPU. I widziałem rróżnicę po wymianie na mocniejszy. I taka jest prawda. Spłaszczenie wyników oznacza że wąskim gardłem jest CPU. Nie obraź się ale 9800GTX jest trochę wolniejsza od GTX280 szczególnie w 3 SLI i trochę mniej potrzebuje danych przygotowanych przez procesor...Ty mnie kompletnie nie rozumiesz. Uparcie twierdzisz, że ja twierdzę (masło maslane), że procesor nie ma znaczenia w grach. To w takim razie co ja pokazuje na wykresach? To jest oczywiste, że procesor ma znaczenie w grach i ja to od trzech lat próbuję wyjaśnić forumowiczom z różnym skutkiem. Kwestia jest tego typu, że ma to równie duże znaczenie przy mocnej, co przy słabej karcie graficznej. No chyba, że przy słabej zadowalasz się 20 FPS'ami, a przy mocnej już musisz mieć 50, to wtedy co innego. Dlaczego szybkie karty graficzne potrzebują szybkich CPU? Bo wolne CPU ograniczają liczbę generowanych przez GPU FPS. Takie jest moje stanowisko. Oczywiście masz prawo się z nim nie zgodzić. Moje zdanie generlanie tutaj nie jest istotne. Istotne są fakty, które przedstawiłem wcześniej. Przykładowo (Gothic III): czy GTX-260 generuje więcej FPS w 1920 x 1440, jak 9800 GTX w 1600 x 1200? Nie - tyle samo, a więc nie wymaga szybszego procesora. Nikt nie gra na szybszej karcie w trybach charakterystycznych dla słabszej karty! Tak samo wolne CPU ograniczy ilość FPS na GF'ie 9600 GT (w trybie dla niego charakterystycznym) jak to samo wolne CPU zrobi to na GTx'ie 280 w trybie dla niego charakterystycznym. Z Twojego tekstu wynika, że na tym samym CPU z szybszą grafiką będzie wolniej niż na słabszej grafice - LOL Edytowane 4 Listopada 2008 przez focus_ Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
TomaszPaweł Opublikowano 4 Listopada 2008 Zgłoś Opublikowano 4 Listopada 2008 (edytowane) Nikt nie gra na szybszej karcie w trybach charakterystycznych dla słabszej karty! Ja postawiłem na początku tezę, iż szybkie karty graficzne wymagają mocnych CPU. Ty się z nią nie zgodziłeś. Ja nie wypowiadałem się o kartach wolnych, starej generacji, tylko o konstrukcjach topowych i to w SLI lub 3 SLI. To jest brednia: "Tak samo wolne CPU ograniczy ilość FPS na GF'ie 9600 GT (w trybie dla niego charakterystycznym) jak to samo wolne CPU zrobi to na GTx'ie 280 w trybie dla niego charakterystycznym. Z Twojego tekstu wynika, że na tym samym CPU z szybszą grafiką będzie wolniej niż na słabszej grafice - LOL" i manipulacja. Nigdy czegoś takiego nie napisałem, że na tym samym wolnym CPU z szybszą grafiką będzie wolniej niż na słabszej grafice. Litości proszę.... Wolne CPU bardziej ogranicza szybszą kartę niż wolniejszą. Co nie znaczy, że szybsza karta będzie generowała mniej FPS niż wolniejsza... Litości po raz 2.... Tryb charakterystyczny..... ale spróbujmy przez chwilę.... w trybie charakterystycznym dla 3SLI GTX280 czyli 1920x1200 na E8400 mamy 35FPS a na I7965 55FPS. Wooow. Kopara opadła mi na ziemię... Jakto możliwe, przezież szybkie karty podobno nie wymagają szybkich CPU hmmmmm Edytowane 4 Listopada 2008 przez TomaszPaweł Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
focus_ Opublikowano 4 Listopada 2008 Zgłoś Opublikowano 4 Listopada 2008 (edytowane) Ja postawiłem na początku tezę, iż szybkie karty graficzne wymagają mocnych CPU. Ty się z nią nie zgodziłeś. Ja nie wypowiadałem się o kartach wolnych, starej generacji, tylko o konstrukcjach topowych i to w SLI lub 3 SLI. To jest brednia: "Tak samo wolne CPU ograniczy ilość FPS na GF'ie 9600 GT (w trybie dla niego charakterystycznym) jak to samo wolne CPU zrobi to na GTx'ie 280 w trybie dla niego charakterystycznym. Z Twojego tekstu wynika, że na tym samym CPU z szybszą grafiką będzie wolniej niż na słabszej grafice - LOL" i manipulacja. Nigdy czegoś takiego nie napisałem, że na tym samym CPU z szybszą grafiką będzie wolniej niż na słabszej grafice. Litości proszę.... Wolne CPU bardziej ogranicza szybszą kartę niż wolniejszą. Co nie znaczy, że szybsza karta będzie generowała mniej FPS niż wolniejsza... Litości po raz 2.... Tryb charakterystyczny..... ale spróbujmy przez chwilę.... w trybie charakterystycznym dla 3SLI GTX280 czyli 1920x1200 na E8400 mamy 35FPS a na I7965 55FPS. Wooow. Kopara opadła mi na ziemię... Jakto możliwe, przezież szybkie karty podobno nie wymagają szybkich GPU hmmmmm Kompletnie nie rozumiesz. Mówiąc tryb "charakterystyczny" mam na myśli rzeczywiście charakterystyczny, a nie taki, w którym szybsza grafika ma 60 FPS, a ta wolniejsza nawet pomimo mniejszej rozdzielczości i tak nie wyrabia powyżej 40 FPS. Dany procesor zawsze ogranicza do tej samej wartości i teraz kwestia tego, czy dana karta w danym trybie pozwoli osiągnąć ta wartość czy nie. Zakładając, że procesor ma granicę na poziomie powiedzmy 50 FPS, to (załóżmy) 9800 GTX w 1024 x 768 będzie rownie ograniczony, jak GTX-280 w 1600 x 1200. Co innego jest gdy sprawdzasz różne karty w tej samej rozdzielczości, ale to jest test,a nie realne zastosowanie. Wytłumacz mi też czym z punktu widzenia procesora różni się GTX-280 od nie wiem GF'a 8600? Edytowane 4 Listopada 2008 przez focus_ Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
TomaszPaweł Opublikowano 4 Listopada 2008 Zgłoś Opublikowano 4 Listopada 2008 Wytłumacz mi też czym z punktu widzenia procesora różni się GTX-280 od nie wiem GF'a 8600?Różni się tym, że ten pierwszy szybciej przetworzy dane dostarczone przez CPU i zażąda następnych, a ten drugi ze względu na mniejszą moc obliczeniową rzadziej będzie prosił procesor o kolejne dane do obliczeń w stodunku do tego pierwszego. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość dwaIP Opublikowano 4 Listopada 2008 Zgłoś Opublikowano 4 Listopada 2008 ... i manipulacja. ... Focus doskonale wie że do testów powinna byś użyta dużo wydajniejsza karta graficzna aby ukazać w pełni różnice pomiędzy procesorami. Problem leży w tym że na testy wolne od marketingu trzeba poczekać aż procesory znajdą sie w sklepach na półkach a potem w komputerach użytkowników. Na zdecydowaną większość "testów" z 3 listopada trzeba patrzeć jak na artykuły sponsorowane. Na dzisiaj można wywnioskować że do gier i7 to nieefektywny pomysł w stosunku do E8xxx i Q9xxx. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Twój Pan Opublikowano 4 Listopada 2008 Zgłoś Opublikowano 4 Listopada 2008 ja juz je moge mieć, pytanie jakie marże naliczą sklepy ;)Kupic i7 za cene ponizej "sugerowanej" to nie problem od kilku tygodni, pozostaje jedynie pytanie po co :rolleyes: Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
focus_ Opublikowano 4 Listopada 2008 Zgłoś Opublikowano 4 Listopada 2008 Różni się tym, że ten pierwszy szybciej przetworzy dane dostarczone przez CPU i zażąda następnych, a ten drugi ze względu na mniejszą moc obliczeniową rzadziej będzie prosił procesor o kolejne dane do obliczeń w stodunku do tego pierwszego.Aha czyli 50 FPS w wykonaniu 8600 GT to jest mniejsze obciążenie dla procesora, niż 50 FPS generowane przez GTX'a 280 - dobre LOL Focus doskonale wie że do testów powinna byś użyta dużo wydajniejsza karta graficzna aby ukazać w pełni różnice pomiędzy procesorami. Oczywiście, że nie jest to konieczne. Z reguły przy różnicy w taktowaniu rzędu 20% osiągałem róznice w wydajności rzędu 18-20%. Lepszych rezultatów osiągnąć sie nie da. Problem leży w tym że na testy wolne od marketingu trzeba poczekać aż procesory znajdą sie w sklepach na półkach a potem w komputerach użytkowników. Na zdecydowaną większość "testów" z 3 listopada trzeba patrzeć jak na artykuły sponsorowane. Wytłumacz mi na czym ten marketing w takim razie polega. Na dzisiaj można wywnioskować że do gier i7 to nieefektywny pomysł w stosunku do E8xxx i Q9xxx.To było oczywiste już w chwili premiery E8200 czyli w styczniu tego roku i od tamtego czasu sie nie zmieniło nic. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
TomaszPaweł Opublikowano 4 Listopada 2008 Zgłoś Opublikowano 4 Listopada 2008 Aha czyli 50 FPS w wykonaniu 8600 GT to jest mniejsze obciążenie dla procesora, niż 50 FPS generowane przez GTX'a 280 - dobre LOL Oczywiście, że nie jest to konieczne. Z reguły przy różnicy w taktowaniu rzędu 20% osiągałem róznice w wydajności rzędu 18-20%. Lepszych rezultatów osiągnąć sie nie da. Wytłumacz mi na czym ten marketing w takim razie polega. To było oczywiste już w chwili premiery E8200 czyli w styczniu tego roku i od tamtego czasu sie nie zmieniło nic. Jeżeli wyciągasz z mojej wypowiedzi takie wnioski to gratuluję. Po tym stwierdzeniu kończę z Tobą dyskusję przyznając Ci rację w myśl pewnej uniwersalnej zasady.... Parafrazując Ciebie: Napisałeś, że w tej samej rozdzielczości 8800GT osiągnie tyle samo FPS co GTX280 :blink: Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
DDR2 Opublikowano 4 Listopada 2008 Zgłoś Opublikowano 4 Listopada 2008 Kupic i7 za cene ponizej "sugerowanej" to nie problem od kilku tygodni, pozostaje jedynie pytanie po co :rolleyes:Do testów ramek ddr3 :lol2: Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
bnn666 Opublikowano 4 Listopada 2008 Zgłoś Opublikowano 4 Listopada 2008 Parafrazując Ciebie: Napisałeś, że w tej samej rozdzielczości 8800GT osiągnie tyle samo FPS co GTX280 Mając jakaś gierę, która jest bardzo łasa na proca i ustawiając 640x480 przy minimalnych detalach pewnie da się taki efekt otrzymać :wink: Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
focus_ Opublikowano 4 Listopada 2008 Zgłoś Opublikowano 4 Listopada 2008 Jeżeli wyciągasz z mojej wypowiedzi takie wnioski to gratuluję. Po tym stwierdzeniu kończę z Tobą dyskusję przyznając Ci rację w myśl pewnej uniwersalnej zasady.... Parafrazując Ciebie: Napisałeś, że w tej samej rozdzielczości 8800GT osiągnie tyle samo FPS co GTX280 :blink: Cały czas próbuję Cię zmusić do lektury tamtego artykułu, po którym może zrozumiesz o co w tym chodzi. Nie mam zamiaru robić wielkiego wywodu, który jedynie będzie powieleniem tego co tam napisałem. Podam Ci ostatni przykład, po którym może zrozumiesz wreszcie gdzie tkwi Twój bład: Procesor A ma ograniczenie do 50 FPS, a procesor B do 80 FPS w tym samym miejscu Grafika 1 ma następujące wartości graniczne w tym samym miejscu w nastepujących rozdzielczościach: 1024: 45 1280: 32 1600: 25 1920: 18 Grafika 2 ma następujące wartości graniczne w tym samym miejscu w następujących rozdzielczościach: 1024: 65 1280: 48 1600: 35 1920: 26 I teraz montujemy procesor A i sprawdzamy grafikę numer 1: w żadnej rozdzielczości (poczynając od 1024, bo to nas interesuje - w 800 będzie oczywiście więcej niż te 45) procesor nas nie ograniczył Montujemy grafikę numer 2 i w rozdzielczości 1024 x 768 dostaliśmy limit procesora czyli 50 FPS, zaś w 1280 x 1024 już nie bo grafika tutaj skończyła się na 48 klatkach. Montując procesor B niezależnie od karty oraz wybranego trybu, karty osiągają swoje maksymalne wartości. Wniosek Karta 2 w trybie dla siebie charakterystycznym (zakładamy, że chcemy ponad 40 FPS) czyli w rozdzielczości 1280 x 1024 zadowala się tym samym procesorem, co karta 1 w trybie 1024 x 768, gdzie uzyskuje 45 FPS. Ograniczenie, o którym mówisz występuje wtedy gdy na jednym procesorze w rozdzielczości dajmy na to 1280 x 1024 sprawdzamy całe spektrum kart graficznych począwszy od założmy GF'a 8600 na GTX'ie 280 kończąc. "Ale to jest test, a nie realne zastosowanie" - a to są właśnie Twoje słowa. W realnym zastosowaniu szybszy procesor nie jest wymagany do szybszej karty graficznej - w teście owszem. Właśnie z tego powodu redaktorzy testujący karty graficzne zawsze są wyposażeni w możliwie szybkie jednostki, by możliwie unikać sytuacji, w której procesor nie wyrabia. Ale tutaj tkwi sedno sprawy - on będzie równie nie wyrabiał na grafice jakiejś tam w 1024 x 768, co na jakiejś innej w 1280 x 1024. Ty zmieniając (hipotetycznie) z 9600 GT, na GTX'a 260 nie grasz w tej samej rozdzielczości (np. 1024 x 768), tylko ją zwiększasz - w końcu masz szybszą grafikę. A jeśli kupiłeś grafikę szybszą po to by mieć więcej FPS, a procesor Ci na to nie pozwoli to uświadom sobie wreszcie, że nie pozwalał on tez na to przy wolniejszej grafice. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
TomaszPaweł Opublikowano 4 Listopada 2008 Zgłoś Opublikowano 4 Listopada 2008 (edytowane) W realnym zastosowaniu szybszy procesor nie jest wymagany do szybszej karty graficznej sunny bum baby So for the last time I'm explaining this, to get the message clear... you need heaps of GPU performance like 3-way SLI GTX 280 in order to be able to show what the Core i7 can do. Tak więc Pier..... Hipolicie :) PS. Ważny dla mnie cytat z fajnego filmu. Edytowane 4 Listopada 2008 przez TomaszPaweł Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
focus_ Opublikowano 4 Listopada 2008 Zgłoś Opublikowano 4 Listopada 2008 sunny bum baby So for the last time I'm explaining this, to get the message clear... you need heaps of GPU performance like 3-way SLI GTX 280 in order to be able to show what the Core i7 can do. Tak więc Pier..... Hipolicie :) PS. Ważny dla mnie cytat z fajnego filmu. To jest zwykłe skalowanie się grafiki z procesorem - nawet nie próbujesz zrozumieć tego co napisałem wyżej. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość dwaIP Opublikowano 4 Listopada 2008 Zgłoś Opublikowano 4 Listopada 2008 Mając jakaś gierę, która jest bardzo łasa na proca i ustawiając 640x480 przy minimalnych detalach pewnie da się taki efekt otrzymać :wink:Można dojść do fałszywych wniosków usiłując zastąpić w testach wydajności CPU w grach mocną kartę graficzną niższymi rozdzielczościami ze względu na brak jednoczesnego skalowania się rozmiaru cache CPU. Nieco bardziej uprawnione wnioski można wyciągnąć zmieniając taktowania karty graficznej lub CPU i szyny ale zwiększenie taktowań karty to nic innego jak uzyskanie trochę wydajniejszej karty graficznej :) ale tylko trochę. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
bnn666 Opublikowano 4 Listopada 2008 Zgłoś Opublikowano 4 Listopada 2008 jeśli ktoś jeszcze chce się zagłębiać w temat dopasowania proca do grafy to polecam klik! co prawda artukuł już trochę ma co przekłada się na nieobecność najnowszych technologii i gier, ale mimo to warte porównania. Jedno z bardzo niewielu miejsc, gdzie wykorzystano najsłabsze dostępne procesory. jeśli skrajny OT to proszę u usunięcie <_< Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...