Skocz do zawartości

Lumperator

Stały użytkownik
  • Postów

    1059
  • Dołączył

  • Ostatnia wizyta

Odpowiedzi opublikowane przez Lumperator

  1. Panasonic robie niezłe telewizory. Czy te stare czy te nowe, jakość porządna.

    U mnie w pierwszym poscie jest błąd - Samsung 29". Nie ma co brać pod uwagę.

    Za to model Slim 306 jest ciekawym telewizorem. Sam rozmyślam jego

    zakup, tyle ze to już wydadek około 2300 zł. Jednak patrząc na jego parame-

    try sądze, ze warto dołożyć parę stwóek i mieć po prostu sporo lepszy

    telewizor z dość małą pupą. No i ten wygląd ^^

  2. A to do czego ma się odnosić ?

     

    Film w 16:9 powinien być odtwarzany w rozdzielczości 1024x576 przy

    prędkosci 8mbps. Mamy wówczas obraz o dobrej jakości. Zdarza się

    jednak, że panorama w różnych filmach rożnie wygląda (zwłaszcza w

    pirackich kopiach po shrinkowaniu) - powiedzmy 720x354. I pójdzie taki

    lolek na bazarek, kupi pirata i cieszy się "jakością DVD" -_- Jak słowo

    daję, już lepiej skołowac film w XviD'zie porządnie zripowany na 2 CD ;-)

  3. Słyszałem STX 30' i 25'. 30stka była cieniutka, choc z pozornie grało to ładnie.

    Po 2, 3 latach zaczną się poważne problemy z tym basem. Tak duży głośnik wymaga

    mocy do utrzymania jako takiej dynamiki. A więc musi być zbudowany z dobrego

    materiału. Czy głosniki STX są zbudowane z dobrych materiałów ?

    Biorąc pod uwagę cenę, można zaryzykować takie twierdzenie.

     

    Wnioskuję więc, że mniejszy głośnik taniego producenta okaże się lepszym

    wyborem niż ten większy. 18' nie słyszałem. Jeśli niewiele to odbiega

    od Tonsila, to rzeczywiscie można taką opcję rozważyć.

     

    O Alphardach nie będę się wypowiadał. Szkoda słów.

  4. Jesli masz kartę graficzną z Video In (nie TV in... czegoś takiego nie ma!), to

    razem ze sterownikami powiniennes miec płytkę CD z odpowiednim oprogra-

    mowaniem. Do przechwytu video polecany jest stosunkowo prosty program

    VirtualDub. Można też skorzystać z oprogramowania Pinnacle Studio (to

    taki super uproszczony Adobe Premiere ^_-).

     

    Obraz z kamery, magnetowidu czy tunera satelitarnego zgrywac można

    z wejscia Video w karcie graficznej, w karcie TV lub w karcie Video MJPEG.

    Karty graficzne sa pod tym względem cieniutkie, karty TV też. Natomiast

    analogowa karta do nieliniowego montażu video ze sprzętowym

    kodekiem MJPEG przechwyci obraz bez widocznej straty w jakości. Należy

    się jednak liczyć z faktem, że 5-7 minut materiału w MJPEG zajmuje

    około 1 GB. I na koniec dodam jeszcze, że żanda z tych opcji nie nadaje

    się do oglądania bierzącego Video na pełnym ekranie. Jakość tylko dla podglądu.

  5. A ja wciąż twierdzę, że STX to lipa. Słyszałem zarówno stare wymęczone głośniki tej firmy jak i nowe. Bas schodzi nisko, czuć głębię. Niestety słaba jest nad nim kontrola, lubi się rozjeżdzać. Ponadto duże głośniki wymagają sporej mocy od wzmacniacza imho dużego lokalu. Przy typowym wzmacniaczu 40-60W ustawionym do połowy prędkosć basu jest żenująca. Sorry, ale jak ty mi chcesz wmówić, że STX ładnie gra np. przy punk-rocku to chyba żyjesz w jakimś absurdzie. Te głośniki są po prostu ociążałe. Nie mogą z siebie wydobyć jako takiej punktualności. Heheheee... i jeszcze te sugestie producenta iż mogą miejscami wyciągac 25-28Hz. Cóż, jest tylko jedno laboratorium akustyczne w Polsce w którym można dokładnie zmierzyć wszelkie napięcia, częstotliwości... itd. To, że napiszą 25Hz nic nie wnosi do rozmowy.

     

    Alphard... :rolleyes:

  6. Porównywanie serii R520 do FX (leonheart) to lekkie nieporozumienie. Karty FX były zwalone po całości, robili na pałe... byleby wyszło. No i wyszo takie coś, co na tle Radeona 9800 Pro wyglądało nieprzyzwoicie śmiesznie. Obecna sytuacja z kartami ATi jest wyraźnie lepsza... na tyle, by zagrozić konkurentowi (czy to wystarczy?). Za to niepokojąco wygląda marketing firmy, w sferze którego padają wielkie liczby, a później widzimy przeciętne słupki na wykresie (choć nie powiem, że są złe!). O ile karta X1800XT radzi sobie całkiem nieźle, tak już spóźniony o pół roku X1800XL wzgledem GF7800GT wypadł blado. Zobaczymy jak to będzie z NVIDIĄ przy 0.09.

  7. olac potoki

     

    nie kupie karty ati poki sie nie nauczą robic dobrych sterów pod opengl i linuxa

     

    to co teraz jest to porażka;/

    co prawda 99% softu uzywam na dx/win32, ale czasem lubie włączyc alternatywe, i wtedy moj radek daje ciała

     

    btw - zwróccie uwage na jedno w testach - jakby nie patrzeć, na większosci serwisu stronach wyniki pokazują, że poziom minimalnych fps jest u ati wyzszy, niz na gtx

     

    znow nvidia cos niedomaga pod tym względem;/

    1697199[/snapback]

    Cóż, ATi ma w pupie to, że ty masz Linuxa i chciałbyś pod niego dobre stery.

    Ich polityka jest prosta - uderzać w masy, a nie w jednostki.

     

     

    ati to grówno  :mur:

    1705834[/snapback]

    Mylisz się albo za dużo razy waliłeś głową w mur.

     

    .......................

     

    ATi to trudny przeciwnik dla NV. Możnaby powiedzieć - nie odpuszcza.

    Wystarczy od czasu do czasu czytać tweak.pl :lol2:

     

    http://tweak.pl/wpis_3775.php

  8. niestety kolega sie myli(z avatara wynika że kto inny ma przekrwione oczy)

    NV47 czyli G70 jedno i to samo ,prawda lezy po srodku  cyt. "Jednak tak na prawdę to jest kwestia tylko i wyłącznie producenta, jaką nazwę kodową nada swojemu układowi"

    1688188[/snapback]

    Muszę sobie kupic jakies krople, bo faktycznie mam z lekka przekrwione :lol2:

    NV47 czyli G70. Z tego wynika, ze GF7 to GF6 (przyjmując, że seria NV4x to GF6). W rzeczywistości spora optymalizacja PS3.0, dodatkowe potoki (GF6 miał ich najwięcej 16 bez uprzednich cięć) oraz zwiększone takty wystarczą, by handlowo karta stawiana była o jedną klasę wyżej. Takie zagrywki znane są od lat, ale cóż zrobić. Przecież głupotą byłoby wypuszczenie karty GeForce 6900 z tymi wszystkimi usprawnieniami. Najwyraźniej zmiany jakich NVIDIA chciała dokonać wobec GF6800 okazały się zbyt duże, stąd też przemianowano projekt na G70. Tylko po co to Gregou napisał, że G70 to będzie GF7800Ultra, a obecny GTX to NV47 ? W chwili obecnej, w rzeczywistej polityce marketingowej MVIDII, stwierdzenie to nie ma sensu.

     

    Faktycznie, co to jest. Jeszcze dodatkowe potoki, więcej pamięci, mniejszy pobór energii. Ot taki sobie GF6 z dodatkami."

     

    te rzeczy raczej sie nie wykluczają - amd też ciągle grzebało w athlonach, aż do postaci ostatecznej xp barton - w założeniach ten sam proc, tyle że przemodelowana architektura, dołożony cache, zmniejszony pobór energi(via proces technologiczny i optymalizacja krzemu). Dopiero a64 można było nazwać zupełnie nowym procesorem.

     

    więc nie mówcie że tak ma być :P

    1688207[/snapback]

    Mówisz o wszystkich Athlonach z rodziny K7 ?

    Jeśli tak, to współczuję inzynierom z Intela. Grzebią, grzebią i wyjść z tego g**na nie mogą :wink:

     

    A pozatym masz rację :)

  9. przy okazji panowie to g70 jeszcze sie nie ukazał i bynajmniej 7800gtx nim nie jest...

     

    g70 dopiero tera sie ukaże, jako 7800 ultra

     

    czemu?

     

    bo nv musiało miec cos w zanadrzu

     

    skad to wynika??riva tuner prawde ci powie->>7800gt i gtx to nic innego jak wczesniej 'zarzucony' projekt nvidii, czyli nv47

    czyli 7800 to po prostu usprawniony procesor z serii 6X00 - zwiększone takty, usprawniona architektura, dodane TAA...

    i tyle

     

    walka dopiero sie zacznie i to nie ati niestety  będzie królem wydajności

     

    BTW -nie jestem fanem ani ati, ani nv, za ich przewałki z nazewnictwem, kombinatorstwem, pustą wydajnością czasami i zrąbanymi, "optymalizowanymi" sterownikami, ktore normalnie powinny mieć max 3-6Mb, a nie  60...seria fx-miałem jedną kartę...porażka

     

    W dodatku ati daje [gluteus maximus] na polu sterów pod linuca i opengl(jedno powiązane z drugim)

    1687960[/snapback]

     

    NV 47 nie ma nic wspólnego z G70. Nie wiem skąd czerpiesz te liche informacje. Jeśli RivaTuner wyświetla takie informacje, to albo z tym programem jest coś nie tak, albo przekrwiły Ci się oczy od zmęczenia.

     

    "czyli 7800 to po prostu usprawniony procesor z serii 6X00 - zwiększone takty, usprawniona architektura, dodane TAA...

    i tyle"

     

    Faktycznie, co to jest. Jeszcze dodatkowe potoki, więcej pamięci, mniejszy pobór energii. Ot taki sobie GF6 z dodatkami. Dla użytkownika karty GeForce6, G70 to żadna rewelacja. Ale tak samo można powiedzieć o GF1/GF2, GF3/GF4, Radeon 9800/X800... itp.

     

    Co do kombinatorstwa obu firm - RACJA!

     

    Jeżeli sterowniki zajmują 60MB, to znaczy, ze tak własnie ma być! Po cu tu w ogóle dyskutować ?

  10. Ale to nie zmienia faktu, że NVIDIA ma wtłoczone 24 potoki, natomiast chipy ATi "tylko" 16. Przecież nie da się zrobić szybszej karty z tą ilością potoków, nie podnosząc jej innych parametrów. ATi skutecznie nadrobiło dużo wyżej taktowanym rdzeniem, szybszymi pamięciami i poniekąd lepiej zoptymalizowaną jednostką PixelShader. Polityka ATi jest logiczna, niezaprzeczalnie sensowna. Trzymają sztamę z Microsoftem, dla którego liczy się tylko DirectX. Gier pod DirectX jest zdecydowanie więcej i nie wykluczone, że kiedyś zapaleni programiści OGL przejdą na DX. Konsloa XBox360 wykorzstywać będzie biblioteki DirectX. Zatem wszystkie gry na tę konsolę tworzonę będą wedle wymogów MS. To oznacza, że taki John Carmack nie będzie miał wyjścia (jeżeli chce dalej tworzyć gry). Każde przesunieęcia PS3 dodają konsoli Microsoftu pewności na rynku. Japońscy twórcy gier (mocno przywiązani do rodzimych sprzętów Sony czy Nintendo) już teraz zapowiadają gdy na kosnole Xbox. Bo w czym rzecz. Xbox jest zdecydowanie prostszt w programowaniu, posiada wystarczającą moc i przede wszystkim obecny jest na rynku. Ponadto Microsoft chce ratować rynek gier na PC (Games for Windows). Wiadomo, ze chodzi tu o skupienie uwagi graczy, by Ci za jakiś czas wybrali Windows Vista - system "przyjazny" dla graczy ^___^ Ostatecznie Microsoft chce wygarnąć jak najwiecej kasy zewsząd. Pazerność ludzi z tej firmy nie zna granic. Mimo to pomysły mają dość ciekawe.

     

    I jak to się ma do najnowszych Radeonów ?

    Skoro DirectX ma nabrać jeszcze większej siły, to dopracowanie karty graficznej pod tym kątem jest uzasadnione. I tak samo mozna powiedzieć o uzyskaniu jak najlepszego obrazu w rozdzielczości 1280x1024. Jeżeli cena będzie zbliżona do konkurencyjnych produktów NVIDII, to mozliwe, że karty R520, RV530 i RV515 odniosą sukces. Jedyne co nas moze teraz interesować, to rozkład cen ATi i NV.

  11. W dobie HDTV na pewno.

    Jak mamy rozumiec natomiast stwierdzenie, ze gdyby nie ta karta to sprzet nie poradzilby sobie z obrobka HD-DVD ?

    Nie wierze aby to bylo na tyle wymagajace dla procesorow CPU, a mogl sobie poradzic z tym GPU od nowego radka. Jakas paplanina bez mozliwosci sprawdzenia jak narazie.

    1685975[/snapback]

    Obecne pliki HDTV kodowane sa do MPEG-2, czasem w WMV. Kodek H.264 to trochę inna sprawa. Tu prezycja kodowania jest tak duża, że skok w jakosci obrazu powinien być zauważalny gołym okiem (względem np. 1080i MPEG2). A przecież nalezy mieć na uwadze materiały 1080p zapisane własnie przy użyciu H.264. Już teraz rozkodowanie pliku XviD 720p wymaga naprawdę mocnego procesora (koło 3GHz). 1080 w przeplocie na MPEG-2 z bitrate 15mbps to obnecnie standard (cpu 2.0-2.5GHz). Wyobraź sobie jednak HD-DVD H.264 1920x1080p, 30fps, 30mbps. Jeśli mowa o 1080p H.264 to faktycznie próżno szukac na rynku PC procesora, który płynnie odtwarzałby te pliki.. Czy ATI ma na pokładzie coś takiego? To się okaże.

  12. Tak nie będzię, że będzie. Jeśli ATi dopracuje sterowniki, nVidia nie będzie miała wyjścia. Tak czy inaczej ATi stara się jak może, a nVidia w momencie zagrożenia puści do obiegu wersje Ultra (jest na to przygotowana). Pozycja ATi jest tu bardzo niepewna. Mnie jednak najbardziej ciekawi AVIVO. Sprzętowa akceleracja H.264 to niewąpliwie rzecz warta uwagi.

     

    I jeszcze słówko na temat benchmarków na PClabie. Bezpodstawne podważanie prawdziwości tych testów jest po prostu nie na miejscu. Co jak co, ale PCLab to nie jest byle jaki vortal komputerowy. Nie żebym fanatyzował, ale Naczelnego darzę szacunkiem i zaufaniem. Jeśli pojawia się jakaś nieścisłość, zaraz zostaje to poprawione. PCLab prowadzony jest tak jak winien być prowadzony vortal na światowym poziomie! Cóż, jesli mam być zgryźliwy, to bliżej mi z tym do Tweaka, gdzie newsy pisane są niekiedy byle jak, bez ładu i składu.

  13. Equalizer w Foo oddaje nieco głębszy, pełniejszy bas (nieco... bo tyle wynosi różnica między winampem: 55Hz vs 63Hz). Z resztą bez udziału DSP dźwięk z Foo wydaje się być nieco inny. Czy lepszy? Moze i lepszy. Różnice są marginalne. Moim zdaniem nie jest to warte choćby jednego restartu kompa. Ja pozostanę przy Windows Media Player 10. Podniesienie 32Hz w eq wmp podnosi głębię tego najniższego pasma (imho słyszalnego jeśli tylko głośnik pozwoli). Foobar jest bardzo zaawansowany. Bez gadania jest najlepszym programem do wyciągania z karty siódmych potów.. Tylko ten lepszy dźwięk nigdy nie dotrze do nas w tej lepszej formie. Ten kto uważa, że dźwięk na Foo jest zdecydowanie lepszy, ma lekko zmęczone uszy (bo powiedzieć, że słabe to trochę za dużo). Jak mówię, różnice odsłuchowe mogę być wyczuwalne jak w 3dmarku 60 i 70 fps. Są to więc bardzo subtelne różnice, które w istocie sprawy nie wnoszą nic ponad to co jesteśmy w stanie usłyszeć... a tu już nie pomoże ani asio (które jest stworzone dla urządzeń wejsciowych typu syntezator), ani cudowny foobar. To tyle z mojej strony.

  14. Bez owijania. Na konkurencyjnym vortalu (nazwy nie podam, najwyzej link ^^ www.pclab.pl) pojawiły się wstępne testy nowych produktów ATi. Bez cienia wątpliwości, R520 jest wyraźnie lepszym procesorem w środowisku DirectX niż konkurencyjny GeForce 7. Już na beta driverach widać znaczną przewagę.

     

    Nalezy też wspomnieć o wymówkach ATi co do 1600x1200_60Hz w CF czy próbie uzyskania jak najlepszej jakości w 1280x1024. Rzeczywiscie wydajność najnowszych kart graficznych daje swobodę grania nawet w 1600. W tej rozdzielczości nie ma tak duzej potrzeby korzystania z wszelakich metod usuwania aliasingu (choć zależy to w sporej mierze od samego monitora - stąd też na forum PClab w temacie o Cross Fire niemal 1/3 postów dotyczyła monitorów ^^) Wydawać się to może niepokojęce, bowiem na dobrym CRT w 1600x1200 przydałoby wygaładzanie krawędzi. Z drugiej jednak strony, osoba, którą stać na dwie karty X1800 XT/XL posiada wyższej klasy monitor LCD, w którym 60Hz to norma. Toteż sama polityka jest rozsądnie zaplanowana, tyle, że jej skutki uderzą w wymagających graczy z high-endowym CRT (a wbrew pozorom, takich uzytkoników jest sporoo!). Pozatym nie widzę większego sensu aby karty w CrossFire czy SLI miały dawać frajdę w 1600x1200. Na dziś montowanie dwóch supermocnych kart mija się z celem, bowiem do pełni szczęścia wystarczy jedna. Oczywiście nie długo trzeba będzie czekać na gry, które zaczną wyciskać z kart siódme poty. Wówczas z ostateczną pomocą przyjsć może druga karta, która wspomoże generowanie grafiki. Dlaczego piszę ostateczną? W momencie, gdy pojawi się gra, która na dzień dobry w 1280 zatka nową kartę, producenci będą na finiszu z nowymi produktami. I ZAWSZE ZAKUP JEDNEJ KARTY BĘDZIE WYDATKIEM DUŻO NIŻSZYM, NIŻ ZAKUP DWÓCH Z POPRZEDNIEJ GENERACJI. Dlatego nie widzę sensu ani SLI ani CrossFire. Nie dość, ze pochłania to dużo pieniędzy i zżera mnóswo prądu (a więc znowu pieniędzy), to jeszcze trzeba bawić się w sterownikach, ustawiać profile (NV!) i mnóstwo innych problemów. To jest raczej gra o prestiż między ATI a NVIDIĄ. Co nam to daje? Jedynie złudne przywiązanie do jednej z tych firm.

     

    A narazie ATI lata z miotłą :)

×
×
  • Dodaj nową pozycję...