luki2 Opublikowano 21 Października 2005 Zgłoś Opublikowano 21 Października 2005 (edytowane) Fakt G70 jest częsciowo kompatybilny z Direct 9.0c a to dlatego, że ma jednostkę Pixel Shader nie napisaną pod dyktando Microsoft'u :wink: 1711345[/snapback] Sorry moze sie myle ale to chyba wlasnie nvidia powinna zadbac o to aby byla napisana "pod dyktando" MS. Bo niby pod co NV pisalo pod dosa a moze sami tworza jakis system operacyjny?? :lol:... Jednak lepiej nie. A na amdZone bardzo ciekawe testy jesli sa prawdziwe to ja podziekuje za GF-a i gdyby tylko ATI nie skopalo sprawy na wlasne zyczenie to coz sami wiecie. Edytowane 21 Października 2005 przez luki2 Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Armagedon66 Opublikowano 21 Października 2005 Zgłoś Opublikowano 21 Października 2005 (edytowane) Witam.. Przypomnijcie sobie premierę NV7800, o czym się wtedy pisało na forum. Jak zwykle fani NV mówili, jaka to ona jest świetna i zaawansowana technicznie i jako jedyna obsługuje piksel Szader model 3. Nic, tylko gonić do sklepu i brać w ciemno. A tak naprawdę okazało się, że po prostu NV nabiła swoich klientów w butelkę i z tym szaderem to kit marketingowy. Wszyscy długi czas myśleli, że to działa, a tu nagle wychodzi seria nowych kart Ati i okazuje się, że Szader w NV nie za bardzo działa. Nie wiem jak wam, ale mi to daje dużo do myślenia. W tym momencie sprawa jest jasna, jeżeli Ati będzie w podobnej cenie, co NV, to wiadomo, że Ati króluje. Nie wiem, dlaczego nikt nie wspomniał, że nowa Ati jako jedyna i pierwsza karta na świecie wspomaga sprzętowo kodek H264, nie wspomnę tu już o AVIVO, co sprawia, że karty z tej serii mogą nie tylko zainteresować fanów gier, ale również ludzi, którzy lubią pokombinować z video. Osobiście jak bym parę miesięcy temu nabrał się na NV i wywalił na nią tyle kasy, poczym dowiedział się, że coś nie działa tak jak trzeba, to nie był bym zbyt zadowolony. Pozdrawiam.. Edytowane 21 Października 2005 przez Armagedon66 Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
luki2 Opublikowano 21 Października 2005 Zgłoś Opublikowano 21 Października 2005 Witam.. Przypomnijcie sobie premierę NV7800, o czym się wtedy pisało na forum. Jak zwykle fani NV mówili, jaka to ona jest świetna i zaawansowana technicznie i jako jedyna obsługuje piksel Szader model 3. Nic, tylko gonić do sklepu i brać w ciemno. A tak naprawdę okazało się, że po prostu NV nabiła swoich klientów w butelkę i z tym szaderem to kit marketingowy. Wszyscy długi czas myśleli, że to działa, a tu nagle wychodzi seria nowych kart Ati i okazuje się, że Szader w NV nie za bardzo działa. Nie wiem jak wam, ale mi to daje dużo do myślenia. W tym momencie sprawa jest jasna, jeżeli Ati będzie w podobnej cenie, co NV, to wiadomo, że Ati króluje. Nie wiem, dlaczego nikt nie wspomniał, że nowa Ati jako jedyna i pierwsza karta na świecie wspomaga sprzętowo kodek H264, nie wspomnę tu już o AVIVO, co sprawia, że karty z tej serii mogą nie tylko zainteresować fanów gier, ale również ludzi, którzy lubią pokombinować z video. Osobiście jak bym parę miesięcy temu nabrał się na NV i wywalił na nią tyle kasy, poczym dowiedział się, że coś nie działa tak jak trzeba, to nie był bym zbyt zadowolony. Pozdrawiam.. 1711831[/snapback] Zaraz uzyskasz od odpowiednich person(NV) odpowiedz ze tak naprawde AVIVO i kodek H264(o ile sie myle chodzi o telewizje wysokiej rodzielczosci?)jest kompletnie nie potrzebne bo wiesz najwazniejsze sa potoki i wogole to, ze NV musi byc najlepsze i basta! Inaczej byc przeciez nie moze. Ja ta firme przestalem szanowac po incydencie z Fx-ami potem wyszla seria 6 ktora tez nie miala z poczatku tego co miec powinna ale nvidia to skrzetnie ukryla a teraz wyszla seria 7 w ktorej historia sie znowu powtarza. Coz niektorzy sa slepi, maja klapki na oczach i tego nie widza albo tylko udawaja zeby ukryc rozgorycznie przeciez gdybym ja w tej chwili posiadal (7800) to szczerze powiem po tych wszystkich nowinkach konkretnie bym sie wkurzyl i napewno bym nie udawal gostka ktory twierdzi ze wszytsko jest ok. Raczej bym ja opylil. Zagladales do TEGO linka? :lol2: Ogolnie to najczesciej mozna w tym temacie przeczytac, ze ATi sie spoznilo, ze to, ze tamto ogolnie belkot. Tak naprawde g***o mnie obchodzi ze sie spoznilo wazne, ze wyszlo z dolka(jesli taki byl?? bo to chyba za duzo powiedziane) i jest nadal konkurencja ktora konkretnie da po [gluteus maximus] NV a gdyby nie opoznienia ATI to NV by sie pograzylo i moze wtedy by sie wzieli naprawde do roboty a nie odp***dalali fuszere. Sa tu osoby ktore twierdza, ze miedzy r480 a r520 nie ma za duzej roznicy coz naprawde ciekawe stwierdzenie :lol2: ale jak tak jest to w takim razie 6800 i 7800 to ta sam karta :lol: . Pozdro for all Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
chase1 Opublikowano 21 Października 2005 Zgłoś Opublikowano 21 Października 2005 powiem tak - jak bym wydal tyle siana na 7800, to po tym zagrywie, bym ja chya odeslal do nv i poprosil o zwrot kasy po czym kupil ati :] tak sie jednak nie stalo bo - wole ati i czujac jakis czas temu pewien niedosyt na 9600xt wolalem poczekac niz kupic 6600gt, 2, nie mam tyle zeby kupic sobie (z legalnego zrodla :P ) flagowe produkty z najwyzszych polek :] pozatym jeszcze nie wiadomo czy na x1x00 to dziala tak jak powinno... ale co za roznica - i tak za kilka mies znowu wyjdzie jakas karta od ati czy nv i beda kolejne spory Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Sulaco Opublikowano 22 Października 2005 Zgłoś Opublikowano 22 Października 2005 Panowie...doczytajcie na czym dokladnie polega test DCT i do czego on sie odnosi, nastepnie doczytajcie dokladnie wspomniana recke z amdzone odnosnie dema cod2, i gdzie faktycznie tkwi problem. od siebie tylko dodam, ze ati totalnie sie osmieszylo tymi "rewelacjami"... Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Xan02 Opublikowano 22 Października 2005 Zgłoś Opublikowano 22 Października 2005 Drodzy panowie dlaczego tak jedziecie mi tu na NV?? :huh: Owszem GFX zbytnio udanym tworem nie bylo (sam mam 5600 i niech Bóg ma mnie w swojej opiece)ale w raz z wejsciem serii 6800 Nvidia poczyniła niesamowity skok wydajnościowy, projektując chip nv40 zastosowala najnowsze rozwiązania w szczególnosci PS 3.0, mój kumpel kupil ja zaraz po premierze(zwykły 6800) i to było coś. 11000 na 3Dmark03 po odblokowaniu do 16 potoków zwaliło nas wszystkich z nóg. Potem Ati wydało swoje X800, mniej zaawansowane technicznie, brak Dx9c, a w końcu wydajność nie większa od 6800. Nie wzbudził już takich emocji. Potem nastał G70, skok już nie tak duży ale był widoczny. Ati jak zwykle opużniało wydanie nowego chipa, a gdy już wydało 520 to co najwyżej według mnie zrównało się technicznie i wydajnościowo z Geforce. Dalej 16 pot tylko taktowanie podniesione tak że karta grzeje sie jak piec. Jak dla mnie ostatni wrózniający sie procesor ati to był w R9800. Puki co Nvidia prowadzii już 2 generacje w wyscigu graf. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Sodom Opublikowano 22 Października 2005 Zgłoś Opublikowano 22 Października 2005 Panowie, dramatyzujecie bardzo :wink: i nadajecie tej sytuacji charakter jakiejs zbrodni :lol: Po pierwsze, tutaj macie LINK, ktory przedstawia wydajnosc pixel shader m.in. na gf 7800 gtx, rx1800xt i to jak shadery w gf "nie bardzo dzialaja" :wink: Jesli chodzi o vertexy to niewatpliwie radki sa wydajniejsze. A jeszcze co do radeonow, to przy okazji pojawienia sie info na temat ps 3.0 w nv, wyszlo na jaw, ze seria kart X1800 od ATI nie przechodzi wszystkich testów Vertex Shader 3.0. Czy to jest powod, ktory moze skreslic te karty wsrod uzytkownikow?? Cofajac sie do kart poprzedniej generacji, okazalo sie tez, ze seria x800 nie przechodzi wszystkich testow zgodnosci z ps 2.0 !!!!!! Czy w tej sytuacji, jak napisal chase1, powinniscie byc konsekwentni i odeslac swoje radeony do ATI, po czym kupic gf ?? :wink: No bez przesady :wink: Jakos ta niezgodnosc z ps 2.0 nie zwolnila mojego radka w grach :wink: Po drugie, i to juz na zakonczenie, pomijajac te wyzej opisane niezgodnosci w obu koncernach, jesli faktycznie by to odbiegalo od wytycznych i wazylo na wydajnosci, to Microsoft nigdy w zyciu nie wydalby certyfikatu zgodności, jak i zezwolenia na posługiwanie się specyfikacjami !!!!!!!!!!! A tak to posiadaja go obie firmy, wiec o co panowie robicie caly dym ???????? :unsure: Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Severus Opublikowano 22 Października 2005 Zgłoś Opublikowano 22 Października 2005 a gdy już wydało 520 to co najwyżej według mnie zrównało się technicznie i wydajnościowo z Geforce. Dalej 16 pot tylko taktowanie podniesione tak że karta grzeje sie jak piec. 1712717[/snapback] Technicznie to R520 jest bardziej zaawansowany niż G70. Zaawansowania technologicznego nie ocenia się tylko po ilości potoków i taktowaniach, ale składa się na to wiele rożnych czynników <_< Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
luki2 Opublikowano 22 Października 2005 Zgłoś Opublikowano 22 Października 2005 Ati jak zwykle opużniało wydanie nowego chipa, a gdy już wydało 520 to co najwyżej według mnie zrównało się technicznie i wydajnościowo z Geforce. Dalej 16 pot tylko taktowanie podniesione tak że karta grzeje sie jak piec. 1712717[/snapback] Miales w lapie ta karte, ze twierdzisz, ze grzeje sie jak piec?? Pozatym jesli, sie mocna grzeje to tylko wersja referencyjna bo HIS napewno juz szykuje nowa wersje silencera. Moim zdaniem technologiczne wyprzedzilo i to duzo G70 i jest napewno bardziej uniwersalna(avivo i te sprawy) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość molimo Opublikowano 22 Października 2005 Zgłoś Opublikowano 22 Października 2005 jeżeli mi podacie widoczne w rozgrywce szybkiej różnice między PS2 a PS3 to fajnie będzie. zamieniłem x800 na 7800GTX bo jest skok wydajnościowy nawet o 50% a gdybym chciał x1800XT to bym musiał czekać i wydać około 2,5k (gtx-a kupiłem za 1900zł) ... wada ATI do " czemu tak długo trzeba czekać ?! " Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Xan02 Opublikowano 22 Października 2005 Zgłoś Opublikowano 22 Października 2005 Miales w lapie ta karte, ze twierdzisz, ze grzeje sie jak piec?? Pozatym jesli, sie mocna grzeje to tylko wersja referencyjna bo HIS napewno juz szykuje nowa wersje silencera. Moim zdaniem technologiczne wyprzedzilo i to duzo G70 i jest napewno bardziej uniwersalna(avivo i te sprawy) 1712838[/snapback] Mieć nie miałem ale chłodzenie na 2 sloty na chłodnych kartach sie nie zakłada. Co do wyższości technicznej Radka, technologia ta nastręcza inżynierom ATI więcej kłopotów niż daje korzyści w wydajniości i działaniu, Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Severus Opublikowano 22 Października 2005 Zgłoś Opublikowano 22 Października 2005 To, że sprawia kłopoty to wcale nie znaczy, że z tego powodu jest mniej zaawansowana technologicznie :blink: Jeżeli to wszystko uda się skoordynować - w co głęboko wierzę - to będziemy mieli pogrom na rynku kart graficznych, ponieważ już teraz z tymi bugami X1800XT jest tak samo wydajne jak 7800GTX Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Armagedon66 Opublikowano 22 Października 2005 Zgłoś Opublikowano 22 Października 2005 (edytowane) Panowie, dramatyzujecie bardzo :wink: i nadajecie tej sytuacji charakter jakiejs zbrodni :lol: Po pierwsze, tutaj macie LINK, k Witam Sodom Ten test z twojego linka jest dla mnie osobiście nic nie warty i już króciutko ci odpowiadam, dla czego rozdziałka 1024x768 jest mi totalnie zbędna i nigdy jej nie używam. Posiadam monitor LCD i każdy, kto z takich monitorów korzysta potwierdzi tu, że gry itp. Najlepiej chodzą i wyglądają na rozdziałce 1280x1024.Podam przykład jak dam na rozdzielczości 1024x768 na pełnym wypasie AA i te inne sprawy wszystko na maxa to i tak obraz np. gry wygląda biednie porównując do standardowych ustawień z wyłączonym AA na 1280x1024 (oczywiście nie piszę tu o monitorach kineskopowych, które w rozdzielczości 1024x768 wypadają świetnie)A z tego, co wiem ATi w nowej serii kart postawiło właśnie na rozdzielczość 1280x1024 dla mnie bomba. Jeżeli ktoś ma monitor LCD to na pewno to doceni. Pozdrawiam Edytowane 23 Października 2005 przez Armagedon66 Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Lancer Opublikowano 22 Października 2005 Zgłoś Opublikowano 22 Października 2005 (edytowane) To ci dopiero :lol2: Edytowane 22 Października 2005 przez Lancer Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Severus Opublikowano 22 Października 2005 Zgłoś Opublikowano 22 Października 2005 Incredible :lol: Kto robił te testy? Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Lancer Opublikowano 23 Października 2005 Zgłoś Opublikowano 23 Października 2005 ONI Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
kfazzi Opublikowano 23 Października 2005 Zgłoś Opublikowano 23 Października 2005 Hmmm.... Ciekawe te testy... Ja osobiście poczeka do wejścia kart x1600 i x1800 na rynek i wtedy bedzie można powiedziać jak naprawded to jest :) ale póki co ciekawi mnie nowy rdzeń R580 :) jeśli w nim ATI rąbnie 32 potoki no to zapewne będzie miało odpowiedź na jakiś kolejny produkt NV, który miałby byćodpowiedzią na R520... (jak z fotek wynikało to R580 miał byćgotów równo z r520) Ale wg mnie NVidia powinna poważnie pomyśleć w najblizszym czasie o przejściu na technologię 90nm bo inaczej może sama mieć problemy jak i ATI miało ( jeśli takowe miało ;) ) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
szatanio Opublikowano 23 Października 2005 Zgłoś Opublikowano 23 Października 2005 Jak ktoś ma na zbyciu ok. 1800 PLN może sobie sprawić X1800XL od ibiza http://www.allegro.pl/show_item.php?item=69240385 Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
luki2 Opublikowano 23 Października 2005 Zgłoś Opublikowano 23 Października 2005 Wkurza mnie jedno a mianowicie to, ze jak jeszce nie bylo wiadomo co do konca bedzie reprezentowac seria x1000 jedynie znane byly przecieki to wszscy opierajc sie na nich mowili, ze x1000 jest do [gluteus maximus] i nvidia z nowu rzadzi. Teraz sytuacja sie cale szczescie zmienia mamy przeciez juz na to dowody a coponiektorzy znowu swoj chory belkot, ze ATI za pozno ruszylo, ze wyniki to sciema itd. Ludzie co mnie to obchodzi, ze ATI za pozno ruszylo?? Wazne jest to, ze przebilo G70 i to dosc mocno i fanatycy NV prosze was skonczcie na lewo i prawo chwalic ten wasz chory wynalazek G70 bo mi sie juz od tego zle robi. :mur: Bo to wlasnie 7800 ma wzgledem 6800 jedynie kosmetyczne zmiany a r520 do r480 jest juz naprawde bardzo duzo roznica wymieniac mie sie nie chce wsytarczy zajrzec na co wieksze serwisy no chyba, ze dla niektorych ewolucja to tylko potoki... Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
chemiczny_ali Opublikowano 23 Października 2005 Zgłoś Opublikowano 23 Października 2005 .... 1714041[/snapback] Wygladasz mi na jakiegos fanatyka Ati :? Mowisz ze seria 7 nV to [ciach!]o bo nie wniosla nic... No wytlumacze Ci po co pojawila sie seria 7,ano po to zeby pokazac Ati kto posiada najszybszy uklad,bo x850xt byl szybszy od 6800ultra,no to nV wypuscila serie 7 zeby nie bylo watpliwosci :D Mowisz ze to bezsens i karty to [ciach!]o...hmm pamietasz taka karte jak geforce4 :roll: Czym byla wedlug Ciebie seria 4,juz Ci tlumacze byla lekko przeprojektowana seria 3 ,a po co sie pojawila?? zeby pokazac Ati ,ktora weszla ze swoim r200, kto rzadzi i tyle :D I co teraz wszyscy mowia ze seria 4 to bylo [ciach!]o :-| historia lubi sie powtarzac i wlasnie zatoczyla kolo :lol2: Co do testow ktore zaprezentowal Lancer,no coz pokazuja sile nowej karty czy moze sile pol giga pamieci na karcie B) Polukaj jak wypada x1800xl do swojego glownego konkurenta 7800gt :rolleyes: pozdrawiam Przepraszam wszystkich za ten post ale musialem zareagowac,dziekuje za uwage. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Lancer Opublikowano 23 Października 2005 Zgłoś Opublikowano 23 Października 2005 Co do testow ktore zaprezentowal Lancer,no coz pokazuja sile nowej karty czy moze sile pol giga pamieci na karcie Polukaj jak wypada x1800xl do swojego glownego konkurenta 7800gt pozdrawiam Nie lubie gdybologii, ale wydaje mi sie, ze ATI ma jakis problem z zarzadzniem pamiecia. Tylko w trybie UQ XL wyszedl im slabiej od GT. W HQ jest inaczej gdzie i XT i XL icieraja nosa G70. W koncu trybie UQ mamy ponad 500MB nieskompresowanych textur, albo karty NV mimo wszystko uzywaja jakiejs swojej "wewnetrznej" kompresji. W kwestii samych detali tryb HQ i UQ sie nie roznia. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Sodom Opublikowano 23 Października 2005 Zgłoś Opublikowano 23 Października 2005 Witam Sodom Ten test z twojego linka jest dla mnie osobiście nic nie warty i już króciutko ci odpowiadam, dla czego rozdziałka 1024x768 jest mi totalnie zbędna i nigdy jej nie używam... 1713629[/snapback] Witam :) Niestety, ale nie zrozumiales o co chodzi w tym tescie. To co napisales nijak ma sie do mojego posta :wink: Nie bede tlumaczyl "co i jak", gdyz dla wiekszosci userow forum Tweak jest to zbedne. Poza tym dlugosc tego posta bylaby cholernie dluga. Info na temat architektur obu kart, jak to wszystko dziala, mozna bez problemu znalezc w sieci, wiec troche wysilku nie zaszkodzi :D Podany przeze mnie link pokazuje wydajnosc samych jednostek pixel shader !! I widac, ze pomimo tej spornej kwestii niezgodnosci ze specyfikacja ps 3.0, do czego sie przyczepiliscie i zbulwersowaliscie, shadery w gf dzialaja efektywniej !! Ot cala filozofia tego testu. Na ostateczna wydajnosc w grach ( czyli to, o czym Ty pisales ) ma wplyw o wiele wiecej czynnikow, niz sama wydajnosc jednostek ps. Tyle z mojej strony. Pozdrawiam !! Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Buck Tuddrussel Opublikowano 23 Października 2005 Zgłoś Opublikowano 23 Października 2005 Wkurza mnie jedno a mianowicie to, ze jak jeszce nie bylo wiadomo co do konca bedzie reprezentowac seria x1000 jedynie znane byly przecieki to wszscy opierajc sie na nich mowili, ze x1000 jest do [gluteus maximus] i nvidia z nowu rzadzi. Teraz sytuacja sie cale szczescie zmienia mamy przeciez juz na to dowody a coponiektorzy znowu swoj chory belkot, ze ATI za pozno ruszylo, ze wyniki to sciema itd. Ludzie co mnie to obchodzi, ze ATI za pozno ruszylo?? Wazne jest to, ze przebilo G70 i to dosc mocno i fanatycy NV prosze was skonczcie na lewo i prawo chwalic ten wasz chory wynalazek G70 bo mi sie juz od tego zle robi. :mur: Bo to wlasnie 7800 ma wzgledem 6800 jedynie kosmetyczne zmiany a r520 do r480 jest juz naprawde bardzo duzo roznica wymieniac mie sie nie chce wsytarczy zajrzec na co wieksze serwisy no chyba, ze dla niektorych ewolucja to tylko potoki... 1714041[/snapback] Niedobrze to robi sie od tego ciągłego bredzenia jakie to ATI nie jest kryształowo czyste. Jak to altruistycznie nie podchodzi do użytkowników, nie mysli o zysku i takie tam [ciach!]ły. Natomiast NV należało by spalic, zakopac iitp. Wtedy nastały by cudowne czasy kiedy to anielskie ATI rozdawało by magawydajne karty na gwiazdke za darmo. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
luki2 Opublikowano 23 Października 2005 Zgłoś Opublikowano 23 Października 2005 Niedobrze to robi sie od tego ciągłego bredzenia jakie to ATI nie jest kryształowo czyste. Jak to altruistycznie nie podchodzi do użytkowników, nie mysli o zysku i takie tam [ciach!]ły. Natomiast NV należało by spalic, zakopac iitp. Wtedy nastały by cudowne czasy kiedy to anielskie ATI rozdawało by magawydajne karty na gwiazdke za darmo. 1714606[/snapback] Naprawde za darmo gdzie i kiedy juz sie szykuje zeby zdazyc :lol: Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Armagedon66 Opublikowano 23 Października 2005 Zgłoś Opublikowano 23 Października 2005 (edytowane) Sory faktycznie nie doczytałem :lol2: Edytowane 23 Października 2005 przez Armagedon66 Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Sodom Opublikowano 23 Października 2005 Zgłoś Opublikowano 23 Października 2005 Łoł to Angole kupili Ati coraz to większe bzdury się tu pisze. 1714622[/snapback] LOL, a gdzies Ty to wyczytal, ze Angole wykupili ATI ?? :blink: :blink: Kolejny raz zostales przylapany na tym, ze nie rozumiesz co ludzie pisza :wink: Pozdro !! Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość =H2o=Destroyer[PL] Opublikowano 23 Października 2005 Zgłoś Opublikowano 23 Października 2005 Łoł to Angole kupili Ati coraz to większe bzdury się tu pisze. 1714622[/snapback] Tam jest napisane "anielskie" a nie "angielskie",czytaj uwazniej. Ja i tak bede uwazal ze r520 to dobra karta ale o wiele za pozno wypuszczona i z tego powodu jest przegrana.Mam wrazenie ze role sie zamienily,kiedys w czasach 9800 i 5900,wygladalo to tak ze bardzo dobra architektura 9800 wypadala znacznie lepiej niz 5900,wiec nvidia zrobila mutanta 5950 ultra z 475/950 by nadrobic swoje niedociagniecia w architekturze,a teraz robi tak Ati nie udalo im sie wykrzesać prawdziwego 24-potokowca to zaladowali karcie jakies "masakryczne zegary" by nadrobic strate do G70.Dajcie 7800 gtx z zegarami od x1800xt a zaobaczymy kto tu szybszy jest :D pozdrawiam Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Kyle Opublikowano 23 Października 2005 Zgłoś Opublikowano 23 Października 2005 Tam jest napisane "anielskie" a nie "angielskie",czytaj uwazniej. Ja i tak bede uwazal ze r520 to dobra karta ale o wiele za pozno wypuszczona i z tego powodu jest przegrana.Mam wrazenie ze role sie zamienily,kiedys w czasach 9800 i 5900,wygladalo to tak ze bardzo dobra architektura 9800 wypadala znacznie lepiej niz 5900,wiec nvidia zrobila mutanta 5950 ultra z 475/950 by nadrobic swoje niedociagniecia w architekturze,a teraz robi tak Ati nie udalo im sie wykrzesać prawdziwego 24-potokowca to zaladowali karcie jakies "masakryczne zegary" by nadrobic strate do G70.Dajcie 7800 gtx z zegarami od x1800xt a zaobaczymy kto tu szybszy jest :D pozdrawiam 1714833[/snapback] Ale nadal nie zmienia to faktu że 7800 GT/GTX ma miejscami fatalną jakość aniso w porównaniu do serii 1000 ATI. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Severus Opublikowano 23 Października 2005 Zgłoś Opublikowano 23 Października 2005 Dajcie 7800 gtx z zegarami od x1800xt a zaobaczymy kto tu szybszy jest :D pozdrawiam 1714833[/snapback] Trochę nie na miejscu ten argument, bo równie dobrze można powiedzieć: Dajcie X1800XT z potokami z 7800GTX a zobaczymy kto tu szybszy jest :P Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
kfazzi Opublikowano 23 Października 2005 Zgłoś Opublikowano 23 Października 2005 hmmm... Ja tak sobie na googlach lookałem i coś w miare sensownego znalazłem: http://www.intak.pl/index.php?ak=news&news_id=840 A więc ATI czekało żeby wypuścić R520 bo nie chciało od razu walnąć R580.. W sumie madre posunięcie ze względów marketingowych ;) a teraz ma już odpowiedź na następnąkarte NV więc moze sie zabrać za technologie 60 nm :D hehe.... ( moze trooszke przesadziłem :) ale na wyczytałem że na 2007 rok planują już 60 nm ;) ciekawe co z tego wyjdzie ;) )... Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...