Skocz do zawartości

Feanore

Użytkownik
  • Postów

    6
  • Dołączył

  • Ostatnia wizyta

Profile Information

  • Skąd
    Salzberg ;-)

Osiągnięcia Feanore

Newbie

Newbie (1/14)

0

Reputacja

  1. Ech to jaki sens by miało robienie płyt na laminatach 7, 9 warstwowych ?? I dlaczego np płyty serverowe, wieloprocesorowe są na laminatach nawet i 11 warstwowych ?? :) Bo tzw krytyczne ścieżki ( np te od pamięci ) muszą być dograne co do ns, więc prowadzone są wielema warstwami. A jak jest np tak jak w przypadku płyt dla A MP, gdzie chipset ma ponad 1000 wyprowadzeń to w jednej warstwie by się nie zmieścili inżynierowie...
  2. To żaden paradoks. W czasie kiedy komputery działały na lampach też potrzebowano przełomu - i dokonano go. Obecnie technologia krzemowa rzeczywiście zbliża się do granic - chociaż jeszcze kilka lat pociągnie, obecnie przewiduje się granicę w okolicach 35 nm. Niewykluczone jednak że przełomy w litografii elektronowej/rentgenowskiej przesuną tę barierę jeszcze niżej... Jednak nie tutaj jest pogrzebany przysłowiowy pies - a w technologii materiałowej, efektach pojawiających się w przypadku warstw grubości kilku atomów oraz problemach z dostarczaniem i odpowadzaniem ciepła.. Ale nie o tym miało być :P Myślę że dużo szybsze procesory możemy ujrzeć, ale tylko w zadaniach specjalizowanych, nie w naszych komputerach tak jak je teraz pojmujemy :)
  3. Eeee coś Ci się chyba pomieszkało kolego :lol: Wszystko zależy " co do czego ". Różne zadania ( science / web server ), różne architektury ( RISC/CISC/EPIC ) wymagają innych optymalizacji do szybkiego działania... Jeżeli kod jest "odporny" na branching ( np przez kody predykatowe ) to spokojnie można rozbudwywać jednostki wykonawcze ( tak jak w Itanium np ) żeby osiągąć niesamowitą wydajność FP... Oczywiście serverowe procesory muszą mieć wielkie cache, bo tam liczy się główni wydajność ALU oraz przetwarzanie wielkich ilości danych ( cache Itanium, PA-RISC'a, SPARC 64 itd ). Ale oczywiście zawsze można inaczej - wystarczy spojrzeć na Opterona - stosunkowo mały cache ( 1 mb ), niewielka relatywnie szybkość, wydajność pierwsej klasy :D :D Generalnie nie mozna uogólniać że "to i tylko to" daje wiodącą wydajność, wszystko musi być zbalansowane !!
  4. Uuuuach My mistake :oops: Wszytko z rozpędu :D Kiedyś niezależnie od faktu że stacji na "O" jest chyba z 4 ( Oxygen, Onyx, Octane...) używało się "O" mówiąc o którejś i każdy wiedział o co chodzi ;) Teraz jak poparzyłem to widzę że dorobili się wersji 16k MIPS'a nawet :) Max prędkość - 800 Mhz :) Tak na marginesie zupełnie to od czasu jak głównym źródłem utrzymania stały sie dla SGI servery z Itanium ta firma duzo u mnie straciła :P
  5. Indy ( pełna nazwa - Indigo ) to stacje robocze Silicon Graphics, stara konstrukcja już zresztą. W tych czasach SGI używało procesorów MIPS ( Microprocesor Without Interlocked Pipeline Stages ). Najszybszym modele był oznaczony jako R10k. Nic specjalnego zresztą... Najszybsze procesory jakie są produkowane osiągają z bólem max kilkadziesiąt Ghz. Najczęściej są to procesory sygnałowe, przystosowane do specjalnych celów. Szansę na większe prędkości dawały półprzewodniki o dużej ruchliwości elektronów - takie jak SiGe albo sam Ge, ale technika poszła w stronę rozwoju Si. Obecnie najszybsze tranzystory osiągają ok 1 Thz - ale to są pojedyncze sztuki, budowane tylko i wyłącznie w celu bicia rekordów oraz w celach badawczych na uniwerkach. Nie ma szans, aby obecnie istniały procesory ogólneg przeznaczenia taktowane powyżej kilku Ghz. Wystarczy spojrzeć na Prescotta - w celu osiągnięcia gigantycznych częstości pracy wydłużono potok do 32 faz... Na przeszkodzie jednak stanęły problemy z podborem mocy i odprowadzaniem ciepła... Dlatego zarzucono Tejasa ( miał mieć nawet do 50 faz potoku !! ). Wysiłki konstruktorów idą teraz w kierunku większej równoległości i lepszego jej wykorzystania. Wszyscy producenci podjęli działania w tym kierunku ( DC, MC, MT i wariacje ). A co do najszybszych - zobaczcie na podaną wam listę top 500 - od 3 lat rządzi Nec'owski Earth Simulator. Btw - ten superkomputer, zbudowany w oparciu o Ppro, o którym ktoś wspomniał to był ASCII Red.
  6. Wiadomo co zrobi: zacznie tworzyć GPU wg wytycznych Ati ( sic! ) Czemu?? Bo shadery 1.4 i 2.0 zostały opracowane właśnie m.in. przez Ati. Poza tym czasy się zmieniają - dla gier Dx9 już nie przepustowość mem ma najwększe znacznie, a wydajnośc wbudowanego FPU. Zmianę podejścia nV już z resztą widać - NV40 ma mieć8 potokówpo 2 jednostki... BTW: w wydajności kart opartych na NV3x może się jeszcze zmienić, Microshit pracuje nad kompilatorami uwzględniającymi wymagania tych chipów względem kodu.
×
×
  • Dodaj nową pozycję...