KrOOliK89 Opublikowano 23 Listopada 2007 Zgłoś Opublikowano 23 Listopada 2007 (....)uops (thumbs)(....) A cóż to dokładnie jest? Tzn prosił bym o jakiś link bo chciał bym poczytać (same podstawy), bo wikipedia nie wie. A google to szaleje prze okrutnie: (...)zwana dalej „uops”, która wejdzie w życie z dniem 1 stycznia 2007 r., wprowadza istotne zmiany w zakresie opłaty skarbowej. (...) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
MacOSek Opublikowano 23 Listopada 2007 Zgłoś Opublikowano 23 Listopada 2007 A cóż to dokładnie jest? Tzn prosił bym o jakiś link bo chciał bym poczytać (same podstawy), bo wikipedia nie wie. A google to szaleje prze okrutnie: http://www.google.pl/search?hl=pl&q=ar...=Szukaj&lr= Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
KrOOliK89 Opublikowano 23 Listopada 2007 Zgłoś Opublikowano 23 Listopada 2007 @MacOSek Co prawda ja i angielskie, to dwie inny rzeczy. Ale znalazłem w końcu na wikipedi: Architektura_ARM Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
PelzaK Opublikowano 24 Listopada 2007 Zgłoś Opublikowano 24 Listopada 2007 od kiedy to program jest wykonywany zawsze szeregowo, z punktu widzenia architektury np itanium, ale w naszych zwyklych prockach tez to jest to przetwarzanie potokowe samo w sobie jest zaprzeczeniem przetwarzania szeregowego. To ze dane opuszczaja jednostke w szeregu nie znaczy ze sa przetwarzane szeregowo, po to wlasnie jest duzo jednostek wykonujacych i nasze kochane potoki xD. Niektore architektury przeciez sa budowane tak aby nawet poszczegolne procki mogly podmieniac sobie info z cache miedzy soba. Takze w grupie razniej ;]ja po prostu powiem, pomijajac całe te dywagacje nt wyższości jednych architektur od drugich... Ja mówiłem o komputerach równoległych. Przetwarzanie danych potokami to nadal jest przetwarzanie szeregowe (masz 1 kanał wlotowy, dane są rozdzielane, masz jeden kanał wylotowy). Te 72 procki nadają się już do symulacji bardziej równoległych problemów - są prace badawcze które zajmują się tworzeniem układów mikrokomputerowych przetwarzających dane całkowicie równolegle na wzór sieci neuronowych. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość <account_deleted> Opublikowano 24 Listopada 2007 Zgłoś Opublikowano 24 Listopada 2007 Wracając do tematu ( :D ): Czy te 72 procki są jednakowe? Bo do niektórych celów najlepiej zastosować jest zestaw różnych procesorów specjalizowanych (np. procesory do obliczeń vektorowych, DSP, itp. ), z jednym lub kilkoma "masterami", które zarządzają całym bałaganem. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Mr_Gizmo Opublikowano 25 Listopada 2007 Zgłoś Opublikowano 25 Listopada 2007 poszłoby na tym jakieś seti czy coś podobnego? :P Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
PelzaK Opublikowano 25 Listopada 2007 Zgłoś Opublikowano 25 Listopada 2007 jak ktoś to oprogramuje to wszystko pójdzie... Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
p3dzi0r Opublikowano 25 Listopada 2007 Zgłoś Opublikowano 25 Listopada 2007 skoro to 6rdzeniowce to prawdopodobnie wszystkie takie same , chociaz mozliwosci jest wiele. Jak juz poprzednik napisal, co zaprogramujesz to sie wykona ;] w koncu kazdy procek potrafi liczyc , tylko nie kazdy jest ogolnego zastosowania ;] chociaz z tego co pamietam to bodajze gpu liczy na macierzach a jak wiadomo liczby na macierze tez mozna bezproblemowo przeksztalcic. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Uzurpator Opublikowano 26 Listopada 2007 Zgłoś Opublikowano 26 Listopada 2007 No właśnie uOps to nie instrukcje asm wyplute przez kompilator, tylko ich zdekodowane fragmenty, widzę że jakby trochę się niezrozumieliśmy... każdy procesor na świecie dzieli instrukcje na fragmenty potrzebne dla różnych części rdzenia (dekoder adresów, alu, prefetcher, itd) Oczywiście, że nie. asm x86 jednak dla procka rozbija się na ciąg uOps, które mogą być przetwarzane w dowolnej kolejności. W ekstremalnym przypadku mamy VILWa - gdzie 256 bitowy fetch za jednym razem pakuje djamy na to 16 uOps, na które może się składać 4 ADDy, 2 SUBy, 1 MUL i połowa JNE. W architekturze VILW kompilator miał robić to, co teraz robi dekoder - tyle, że globalne, na cały program, zaś dekoder (a właściwie zestaw fetcher/dekoder/predykator/potok) pracuje na kilku następnych komendach ASMa. he, he, no dobra ale co Ty napisałeś? emulator DMA? xD Chodzi o to, że w normalnych programach obliczeniowych najczęściej nie da się tak łatwo pozamiatać (o prawdopodobieństwo się nie kłóćmy). Zatrzymałeś sie na etapie ~486 :P już pentium potrafiło zrównoleglić część operacji ASMa. Zastanów się zresztą - przecież nie zatrzymasz procesora na kilkadziesiąt taktów, tylko dlatego, że aktualnie FPU trzepie diva na doubla'ch. Procki są za drogie, aby 300-mln tranzystorów czekało :P Poza tym każda instrukcja każdego asm da się rozbić na różne fragmenty, które można różnie interpretować, przetwarzać i uzyskać dzięki temu różną wydajność - na tym właśnie polega różnica w wydajnościach procków AMD i Intela, czyli na prawdopodobieństwie ( ;) ) i optymalizacji. Poniekąd słuszna uwaga. Np AMD zawsze miało problem z zrobieniem porządnego FPU, mimo iż miało dość długo najlepszy predyktor. Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość <account_deleted> Opublikowano 28 Listopada 2007 Zgłoś Opublikowano 28 Listopada 2007 (edytowane) ... Zatrzymałeś sie na etapie ~486 :PWprost przeciwnie - już dawno olałem "cudowne" x86, bo istnieją przynajmniej o klasę lepsze procki, nie wspominając już o możliwości stworzenia własnego rdzenia ;) Poza tym dzięki cudownym właściwościom wielopotokowców intelopodobnych nie da się stworzyć optymalnego kodu - to co działa dobrze (czytaj: maxymalnie szybko) na jednym modelu, na innym jest 2x wolniejsze :lol: . X2 przegrywa z C2D, bo nikt nie optymalizuje kodu zgodnie z zaleceniami AMD, podobnie jak to było z P4 vs K7/K8 - paranoja. Edytowane 28 Listopada 2007 przez tomazzi Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
IGI Opublikowano 28 Listopada 2007 Zgłoś Opublikowano 28 Listopada 2007 Każdy program jest wykonywany "szeregowo" czyli instrukcja po instrukcji (+ skoki). Praca równoległa to praca 2 lub więcej programów, które dzielą się danymi do przetworzenia lub zadaniami do wykonania.Hmm ale co rozumiesz pod pojęciem "program" Aplikacja ? Procedura ? Funkcja ? Bo o ile się nie mylę to można napisać program równoległy który będzie się wykonywał jednocześnie na wielu rdzeniach + jakiś tam niedający się zrównoleglić kawałek sekwencyjnie na jednym jajku. Przecież można zrównoleglać choćby pętle (o ile sie da ;]). Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
Gość <account_deleted> Opublikowano 29 Listopada 2007 Zgłoś Opublikowano 29 Listopada 2007 Procedury, funkcje, aplikacje itd. to tak na prawdę tylko podział formalny kodu, ułatwiający proces pisania programu/ów, organizację i identyfikację pewnych fragmentów. Program to każdy ciąg poleceń, które wykonuje procesor. A poza tym, to napisałeś to samo co ja, tylko innymi słowami ;) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...
elomelo Opublikowano 8 Grudnia 2007 Zgłoś Opublikowano 8 Grudnia 2007 Swoje wtrace co do Itanium, ich wydajnosc przy programach napisanych dla x86 byla porazka, dlatego w Itanium 2 porzucono mozliwosc pracy z tym kodem, podobno (nie wiem, nie uzywalem) w zastosowaniach dedykowanych sa dosc dobre ale do niczego innego sie nie nadaja ;) Cytuj Udostępnij tę odpowiedź Odnośnik do odpowiedzi Udostępnij na innych stronach Więcej opcji udostępniania...