Skocz do zawartości
DJ

Wydajność Fill Rate kart graficznych

Rekomendowane odpowiedzi

Witam

 

Ostatnio testując kilka kart graficznych zbadałem kilka dziwnych dla mnie zjawisk (jeśli można to tak nazwać). Mianowicie chodzi o wydajność Fill Rate karty graficznej. Jak wiemy zależy ona TYLKO I WYŁĄCZNIE od ilości potoków, ilości jednostek TMU oraz samego taktowania rdzenia. Może pierwsze mały wstęp teoretyczny:

 

Przy rdzeniu karty graficznej taktowanym zegarem 100 MHz, który ma 4 potoki renderujące na jedną jednostkę TMU wydajność Fill Rate powinna wynosić:

 

100 MHz x 4 x 1 = 400

 

W przypadku karty, która jest taktowana tym samym zegarem, lecz posiada dwie jednostki TMU przy czterech potokach sytuacja wygląda tak:

 

100 Mhz x 4 x 2 = 800

 

Na tym moja wiedza teoretyczna się kończy. Postanowiłem, zatem popatrzeć w wyniki testów kart graficznych serwisów internatowych. Jako jeden z najbardziej wiarygodnych (moim zdaniem) testów kart graficznych wybrałem twojepc.pl i tam w teście karty GF 6600 mamy coś takiego:

Nie przyglądać się obrazkowi! Pierwsze czytać komentarz i zgodnie z komentarzem obserwować tabelę!

 

Dołączona grafika

 

GF FX 5900XT. Nie jest już tajemnicą, że posiada on 4 potoki renderujące na dwie jednostki TMU, zatem jego teoretyczna wydajność multi teksturowania przy taktowaniu rdzenia 390 MHz wynosi 3120. Jeśli przyjrzymy się wynikom jakie uzyskał w swoim teście Kris, zobaczymy, że wynik multi jest dość mocno oddalony od tego, jakiego wyliczyliśmy kalkulatorem. Ale Ok pomińmy tą kwestię przynajmniej chwilowo. Przyglądnijmy się trybowi Single. Większość z Was zapewne wie, że tryb single nie korzysta z jednostek TMU, a co za tym idzie wynik powinien być bliski połowie teoretycznej maksymalnej dla trybu multi. Teoretycznie powinniśmy zatem otrzymać 3120 / 2 = 1560

Jaki wyszedł wynik w teście? – 1272, czyli patrząc na stratę jaką dostaliśmy w multi, tutaj też się jej można było spodziewać. Zróbmy jeszcze jedno działanie:

2 x otrzymany wynik single = ???????

2 x 1272 = 2544

2544 < 2761 (otrzymany wynik multi)

 

Czyli nasze dywagacje by się zgadzały. Jedynym mankamentem jest spadek wyniku, nie wiedzieć czemu.

 

Przypatrzmy się teraz na kolejną kartę graficzną. A jest nią Radeon 9800 PRO. Ma on zegar rdzenia taktowany 380 MHz, więc wydajność fill rate multi powinien mieć niższą niż FX 5900 XT, natomiast single powinien mieć wyższy. Mało tego wynik single z grubsza powinien (teoretycznie) pokrywać się z wynikiem multi, gdyż karta posiada architekturę 8 x 1 (8 potoków x 1 jednostka TMU). Wynik toretyczny:

380 x 8 x 1 = 3040

Zgadza się Kris to samo wyliczył.

Popatrz co mu wyszło w testach.

Single 1706

Multi 2924

 

I tak:

1. Dlaczego Multi jest wyższy niż w przypadku FX 5900XT ?

2. Dlaczego jest tak duża różnica miedzy trybem single a multi, jak jej nie powinno być?

 

Przeliczmy jednak nasze działania:

2 x 1706 = 3412

 

Nie da się ukryć, że 3412 > 2924

Co w jakiś sposób dowodzi, że R350 faktycznie ma 8 potoków na jedną jednostkę TMU. Czyli pomijając dwa postawione przeze mnie pytania by się zgadzało.

 

Popatrzmy na kolejne:

6800 LE (8 x 1)

(2170 x 2)=4340 > 2360 – zgadza się, architektura w dużo bardziej wyrazisty sposób udowadnia, że ma 8 potoków na jedną jednostkę TMU.

 

6800 (12 x 1)

(2380 x 2)=4760 > 3793 – podobnie jak w przypadku 6800 LE wyraźnie widać architekturę.

 

Przypatrzmy się karcie GF 6600 GT. Wg nVidii ma ona posiadać 8 potoków na jedną jednostkę TMU. Wiemy też, że posiada ona silnik graficzny bezpośrednio wywodzący się z rodziny 6800, czyli wnioskując po wynikach 6800 oraz 6800 LE wyniki powinny być oczywiste. Tutaj jest zonk !

 

Single – 1590

Multi – 3861

Toretyczny – 4000

 

Jeśli przemnożymy single przez 2 to otrzymujemy liczbę nadal mniejszą niż tryb multi. A co za tym idzie karta zachowuje się bardzo podobnie jak GF FX 5900 XT. Jaki z tego wniosek? Może być chyba tylko jeden:

 

GF 6600 (GT) ma 4 potoki na dwie jednostki TMU

 

Mam w domu 6600 więc, postanowiłem to sprawdzić, bo może Krisowi coś w wynikach bruździ. Jednak na przeszkodzie stanął otwarły excel z wynikami Radeona X300 oraz X600.

 

Zajmijmy się pierwsze teoretycznie problemem:

 

Zarówno radeon X300 jak i X600 jest zbudowany w oparciu o ten sam rdzeń RV370, który posiada 4 potoki renderujące na jedną jednostkę TMU. Dlatego też przy taktowaniu 400 MHz wyniki powinny być takie:

 

400 x 4 x 1 = 1600

 

Zobaczmy jakie mi powychodziły wyniki: Wynik pierwszy to jest 3D Mark 2003, wynik podany w nawiasie zaś to 3D Mark 2001

 

X300 @ 325 MHz (teoretycznie – 1300)

Single – 617 (711)

Multi – 1264 (1283)

 

Idąc tokiem myślenia, jakim prowadziłem od początku wywnioskować można, że (617 x 2 = 1234 < 1264) X300 ma architekturę wyposażoną w dwie jednostki TMU.

 

Zobaczmy dalej:

X300 @ 350 MHz (teoretycznie – 1400)

Single – 639 (737)

Multi – 1362 (1387)

 

Komentarz identyczny jak poprzednio.

 

Podniosłem taktowanie pamięci z 210 MHz na 260 MHz. Popatrzmy jeszcze raz na wyniki:

 

X300 @ 350 MHz (teoretycznie – 1400)

Single – 777 (889)

Multi – 1380 (1392)

 

Wyniki o dziwo (szczególnie w trybie single) się podniosły, a nie powinny. Wnioski pozostawmy jednak na koniec.

 

X300 @ 506 MHz (teoretycznie – 2024)

Single – 790 (914)

Multi – 1899 (1988)

 

Zaskoczeni?

Nagle karta zaczęła się zachowywać jak prawdziwa 2 x 2. Mam nadzieję, że nikomu tutaj działań matematycznych nie muszę pokazywać i każdy widzi to co trzeba zauważyć.

 

 

Wziąłem na warsztat też i drugą kartę X600 XT, która miała bardzo dobre pamięci. I postanowiłem też przetestować. Jak pisałem wyżej, rdzeń mamy ten sam, więc przy tym samym taktowaniu wyniki powinny być identyczne.

 

X600 @ 400 MHz (teoretycznie – 1600) – taktowanie pamięci 300 MHz

Single – 889 (1021)

Multi – 1567 (1580)

 

3D Mark 2003 pokazuje, że mamy do czynienia z kartą prawie, że 2 x 2, starszy benchmark, że zdecydowanie 4 x 1.

 

Kręcimy wyżej.

X600 @ 500 MHz (teoretycznie – 2000) – taktowanie pamięci 370 MHz

Single – 1107 (1271)

Multi – 1964 (1980)

 

Tym razem obydwa benchmark zgadzają się co do opinii na temat architektury karty graficznej. I karty zachowują się właściwie jak dla Radeona wyposażonego w 4 potoki i jedną jednostkę TMU. Wróćmy jednak do wyników X300 przy taktowaniu 506 MHz. Widzicie jakieś zależności? Bo ja tylko widzę, że wynik Multi się zgadza, zaś Single ani trochu.

 

Podkręcamy rdzeń na 540, pamięci na 390

X600 @ 540 MHz (teoretycznie – 2160) – taktowanie pamięci 390 MHz

Single – 1174 (1349)

Multi – 2114 (2134)

 

Nie wiedzieć, czemu Multi mniej więcej zgadza się tu i tu (2001 vs. 2003) zaś, tryb single dość mocno się różni. Karta zachowuje się na pograniczu, niby 2 x single jest więcej niż multi, lecz przegania go bardzo delikatnie.

 

Dalej

X600 @ 600 MHz (teoretycznie – 2400) – taktowanie pamięci 390 MHz

Single – 1184 (1369)

Multi – 2330 (2365)

 

Porównajcie wyniki proszę, z kartą X600 taktowaną 540 / 390 i powiedzcie mi jaki jest w tym wszystkim sens? Podnieśliśmy taktowanie rdzenia o 11% zaś wydajność Single Fill rate wzrosła o .......... 1%. Tryb multi tak jak powinien wzrósł o 11%.

 

Może mi to ktoś wytłumaczyć?

 

Ja potrafię chyba tylko na jedno pytanie odpowiedzieć. – 3D Smarki nie nadają się do mierzenia wydajności Fill Rate.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

nom ciekawa sprawa trzeba by sie nad tym zastanowić

Cieszę się, że ktokolwiek cokolwiek napisał :D

 

Ale naprawdę nie ma nikt jakiegokolwiek pojęcia co z tym może być?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ostatnio na tym forum większość interesuje się najdalej taktowaniem układu graficznego. :( Kiedyś się bawiłem w przeliczniki (stosunek ilości potoków do fillrate). Moja wiedza teoretyczna miesza się przy dokładnym analizowaniu single i multi texturingu. :wink: P.S jeśli okazało by się że 6600GT jest 4 potokowy to...................... no comments :!:

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ostatnio na tym forum większość interesuje się najdalej taktowaniem układu graficznego. :(  Kiedyś się bawiłem w przeliczniki (stosunek ilości potoków do fillrate). Moja wiedza teoretyczna miesza się przy dokładnym analizowaniu single i multi texturingu. :wink: P.S jeśli okazało by się że 6600GT jest 4 potokowy to...................... no comments :!:

Jakbyś zgadł :D

 

Tak mi właśnie wyszło, bo zachowuje się identycznie jak FX 5900 czy radeon 9100

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Czyzby znoff Nvidia cos na******* ;) A ja juz wierzylem ze seria 6xxx bedzie godnym nastepca serii 4 Ti :P  

Ale mam nadzieje ze to jednak nie prawda..... ;)

Wiesz o co chodzi, nie myśl, że bronię nVidii bo jej nie bronię, ale wytłumaczę, Ci dlaczego tak a nie inaczej.

 

Popatrz jak wiedza przeciętnego użytkownika rośnie.

Za czasów GF 2 ludzie wiedzieli, że na kartach są pamięci SDR albo DDR i stąd zostalo błędne efektwyne taktowanie. Później jak wyszedł GF 3 to ludzie już wiedzieli, że dana karta obsługuje więcej lub mnie efektów, ze mając gf3 mają DX 8. Zauważ, że przy GF 2 nie wiedzieli, że to DX7.

W momencie kiedy, wyszedł GF 4 Ti, nvidia musiała utwierdzić jakoś użytkownków, że GF 4 jest dużo lepsze niż GF3, wiec zaczęto mówić o nowych funkcjach, buforach itd itd, jednoczesnie bez konkretów

 

ATI wypuściło Radeona 9700. I jak miało wytlumaczyć, że jest lepsze?

no po pierwsze: mamy 8 potoków (GF 4 Ti ma 4 x 2)

po drugie mamy nowoczesnego DX 9

 

nVidia wypuściłą FX 5800

i co miała zrobic, ze nie potrafiła wyprodukowac ukłądu 8 potokowego. Wyprodukowala uklad czteropotokowy ale z 2 jednostkami TMU bo tak jest latwiej, ale powiedziala ze jest ich 8

I tak się ciągło aż do 5900.

 

6800 faktycznie mają ich 16, lecz niestey 6600 mają juz architekturę 4 potokową z dwoma jednostkami TMU. No bo co mialaby powiedzieć, że jej 6600 ma 4 potoki, przeciez tyle samo mają rdeony X600. Wiesz o co mi chdozi - po prostu nVidia musiałaby nauczyć ludzi, że jest coś takiego jak jednostka TMU, jednak na dzisiejszym etapie nVidia twierdzi, ze jest to dla nas za trudne :D

Niestety nie ma tutaj zaleznosci takiej jak w matematyce czyli 4x2=8x1 wiec generlnaie jest gorzej. Co nie zmienia fatu, ze do 900 zlotych nie mozna kupic lepszej grafiki na PCI-E niz 6600 GT, bo faktycznnie wymiata niesamowicie (jak na takie pieniądze)

 

Pozdrawiam

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A ten SM3.0 jest chociaz w GF 6xxx :?: :P Bo w tym momencie mysle ze seria 6xxx to jak 4Ti tylko inne [lepsze] pamieci i inne "efekty" typu taktowanie - aczkolwiek sam GPU jest wkoncu inny ;) Ale 4x2 w 6600 to :lol: Chociaz to jest teraz jak odpowiednik 9700/9800... Nie mowie o Pro ani XT.

Czyli prosty wniosek Nvidia suxx again :mrgreen:

P.S. Nie mam na celu rozpoczenia kolejnej wolny Ati vs. Nvidia :!:

A co do FX 5800 to byl hitem nie ?? !! :P:P Ja zawsze tak myslalem :P

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wiadomo, że nie chodzi tutaj o kolejne wojny ATI vs. nVidia, chodzi tylko i wyłącznie o pokazanie prawdy i tyle.

 

SM3.0 jest w GF 6800 ale realnego zysku z niego nie jestesmy w stanie wyciągnąć. Nawet jeśli wyjdą gry obsługujace Pixel Shader 3.0 i vertexa z tym samym numerem to te gry nie bedą szybciej chodzic na nVidii z tego powodu. Nie będa też lepiej wyglądać. nVidia 6800 obsluguje Pixel Shader w wersji 3.0 ale nie jest w stanie zrobic z tego pozytku, dlatego ze ma tylko jeden "potok" dla Vertexa. Chcąc wykoszytac DM musimy ich mieć więcej.

 

Co nie zmienia faktu, ze 6600 / 6800 to sa dobre karty, ale z pewnością nie z tego powodu, ze obslugujaą SM 3.0 bo jak już mówiłem nic to nie daje i na tych kartach nic nie da. Musimy miec inne (nowsze) grafiki zeby móc to wykorzystać.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

a czy karta o tej samej ilosci potokow i takim samym taktowaniu rdzenia ale jedna ati 2 nvidia ma taka sama wydajnosc fillrate? bo nawet jesli tak to rzeczywysta wydajnosc (chocby nasze ukochane 3dmarki) juz taka sama nie jest. czyli tak wlasciwie to cale fillrate chyba nie ma znaczenia.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Logan"]a czy karta o tej samej ilosci potokow i takim samym taktowaniu rdzenia ale jedna ati 2 nvidia ma taka sama wydajnosc fillrate? bo nawet jesli tak to rzeczywysta wydajnosc (chocby nasze ukochane 3dmarki) juz taka sama nie jest. czyli tak wlasciwie to cale fillrate chyba nie ma znaczenia.

Teoretycznie np. taki radeon x800pro z taktowaniem założmy 400 Mhz bedze mial taki sam fill rate jak GF 6800 (nie GT amni nie ultra) mając też 400 MHz. Choć w praktyce różnie z tym byla, ale jest bardzo zblizone

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chodzi o 6600GT opisali to panowie z Guru3D

 

When we take a closer look we can see that indeed the 6600 GT is using a 500 Mhz core and 500 MHz(2x) on the memory with '8' Pixel pipelines and 3 Vertex processors. The 6600 series can write only four color pixels per clock and has a fragment crossbar. The NV43 does appear to have eight pixel shader/texture units, so its not an "8 x 1" design or a "4 x 1" design. It's more of a hybrid, but the fragment crossbar ensures all four of the chip's ROPs are well utilized. As the benchmarks will show, this works quite well. LINK

 

Mnie jest wszystko jedno czy ma 4x2, 8x1 czy jeszcze inaczej - ważna jest wydajność a po testach widać, że ATI nawet z X700XT nie może powalczyć z 6600GT. ATI wygrywa w testach szczegółowych gdzie mocno utylizowany jest Vertex Shader. nVidia wygrywa rozgrywkę w Pixel Shader ...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie no wiadome, ze czy karta ma 8 potoków na jedną jednostkę TMU czy nawet 1 potok na 8 jednostek TMU nie jest to istotne wazne ze w grach w ktore się gra jest wydajnie i tyle.

 

Ale chodzi tutaj o to, że po raz kolejny nVidia ściemnia, a po co

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach



×
×
  • Dodaj nową pozycję...