Nieliniowego Dynamika wydajności komputera

Original: http://www.cs.colorado.edu/~lizb/computer-dynamics.html

Opis projektu:

Choć nie zawsze jest poprowadzony przez tych, którzy je zaprojektować, nowoczesne komputery są deterministyczne nieliniowe układy dynamiczne, i to zarówno ciekawe i przydatne, aby traktować je jako takie. Pokazaliśmy, że dynamika komputera może być opisana za pomocą map iterowaną z dwóch części, jednej dyktowanym przez sprzęt i jeden dyktowane przez oprogramowanie. Korzystanie z infrastruktury pomiarowej zwyczaj, aby w zmiennych wewnętrznych tych systemów milionów tranzystorów, bez zakłócania ich dynamiki, zebraliśmy dane szeregów czasowych z różnych prostych programów uruchomionych na dwóch popularnych mikroprocesorów, a następnie wykorzystywane współrzędna opóźnienie osadzania studiować Associated dynamika. Znaleźliśmy silne wskazania, z wielu metod potwierdzających, o niskim-wymiarowej atraktora dynamiki prostej pętli trzy-, działającego na instrukcji Intel Core2 maszyny opartej, w tym pierwszy eksperymentalny dowód chaosu w prawdziwym sprzęcie komputerowym. Kiedy prowadził ten sam program na komputerze Intel Pentium 4 oparty na dynamika stała okresowe; kiedy kolejność instrukcji w programie, dodatkowe pętle pojawił się w atraktora, zwiększając jej wymiar od 0,8 do 1,1, a zmniejszenie jego największy wykładnik Lapunowa o 25%. Kiedy na przemian w obu programach, przebudowany tor przemian odpowiednich atraktorów, co prowadzi nas do widzenia komputera jako układu dynamicznego działającego pod wpływem serii bifurkacji wywołanych przez kod, który jest uruchomiony.

Dynamika cache-Miss prosty, pętli trzech instrukcji uruchomiony na maszynie 2-Core są oparte chaotyczna:

 

 

Nieco zaskakująco, topologiczny wymiar przestrzeni osadzania była podobna (m = 10 do 15), w każdym z tych doświadczeń, co jest zapewne odbiciem ograniczeń nałożonych na te systemy ze specyfikacją projektu x86, że obie maszyny naśladowania. Wszystkie z tych niskich wymiarach – atraktorów o wymiarze około 1 w przestrzeni stanów z wielu niewielkiego osi – są nieco zaskakujące w systemie tak złożonym jak mikroprocesor. Komputery są zorganizowane według wzoru w małej ilości mocno połączonych podzespołów, jednak, co znacznie zmniejsza skuteczną ilość stopni swobody w systemie.

Wyniki te, które są skierowane na większej długości w chaosie papieru z 2009 r. cytowane poniżej, są nie tylko interesujące z punktu widzenia dynamiki; są ważne także dla celów symulacji komputerowej i konstrukcji. Te zaprojektowane systemy stały się tak skomplikowane, jak się przeciwstawić narzędzi analitycznych, które są zwykle używane przez ich projektantów: narzędzia, które zakładają liniowość i stochasticity i zasadniczo ignorować dynamiki. Idee i metody opracowane przez społeczność dynamiki nieliniowej, stosowane i interpretowane w kontekście proponowanego tutaj, to o wiele lepszy sposób na studia, zrozumieć i projektowania nowoczesnych systemów informatycznych.

Jeśli komputery są systemy deterministyczne, to należy być w stanie używać deterministycznych zasad prognozy przewidzieć ich zachowanie. Mamy zbadać kilka deterministycznych systemów modelowania, które są opisane w większej długości w IDA ’11 papieru cytowanej poniżej. Okazuje się, że te modele produkcji dokładnych prognoz, w niektórych przypadkach, ale nie wszystkie. Pamięci i procesora mnóstwo prostych programów są łatwe do przewidzenia, na przykład, ale ci z bardziej skomplikowanych programów, takich jak gcc nie są. Dokładne prognozy tych ilości, jeśli można je skonstruować, mogą być wykorzystane do poprawy projektowania komputerowego. Jeśli można było przewidywać, że szczególnie gwint obliczeniowa będzie przeciążony przez następne 0,6 sekundy oczekiwanie na dane z pamięci głównej, na przykład, można zaoszczędzić energię, wprowadzanie tego gwintu zawieszone na ten okres czasu (np. przez migrujące do jednostka przetwarzania, którego zegar prędkości jest zmniejszona).

Przypuszczamy, że w praktyce, złożoność może skutecznie przerastają mocy prognostycznej deterministycznych modeli prognostycznych. Odkrywać, że budujemy modele wielu śladów wydajności z różnych programów uruchomionych na różnych komputerach z procesorami Intel. Następnie obliczyć entropię permutacji – doczesne entropia metryczny, który wykorzystuje analizę porządkowej – tych śladów i skorelowanie tych wartości w stosunku do sukcesu przewidywań.Papier na tych wynikach jest obecnie w przeglądzie.

Jednym z wyzwań w analizie i modelowaniu danych dotyczących wydajności komputera przy użyciu systemy dynamiczne techniki jest niestacjonarny charakter danych. Podchodzimy do tego problemu przy użyciu notorycznie wyzwanie topologii obliczeniowej: wykorzystanie podstawowych właściwości, takie jak ciągłość i powiązanie rozłączać różne systemy w tych skomplikowanych sygnałów:

 

 

Algorytmy te i ich wyniki, co więcej są opisane w chaosie długości papieru cytowanym poniżej 2012.

Osób:

Cały projekt wyrasta z idei przez Amer Diwan (który jest teraz w Google, nawet jeśli strona cs.colorado.edu sugeruje, że wciąż jest tu w Boulder).
Todd Mytkowicz, który jest teraz w Microsoft Research, zrobił pierwszą rundę prac nad tym projektem w ramach jego pracy doktorskiej.
Zach Alexander, który jest teraz w firmie Seagate, opracowany na bazie topologii technik analizy danych wydajności komputera w ramach swojej pracy doktorskiej.
Doktorant Joshua Garland opracowuje prognozy modeli, które pozwolą nam się przewidzieć te dynamiki.
Liz Bradley, profesor informatyki.
Papiery i mówi:

Z. Aleksander, podejście oparte na topologii Czas nieliniowe Serii Analiza zastosowań informatyki z analizy wyników, Ph.D. Teza, University of Colorado, 2012.
Z. Alexander T. Mytkowicz, A. Diwan i E. Bradley, “Pomiar i Dynamiczna Analiza danych wydajności komputera,” IDA-10 (Materiały z 9. Międzynarodowego Sympozjum na temat inteligentnej analizy danych), Tucson; Maja 2010 r.; Springer Lecture Notes in Computer Science 6065 objętości
Z. Alexander E. Bradley J. Garland i J. Meiss, “Modele systemu iterowane Funkcje analizy danych: Wykrywanie i separacja,” Chaos 22:023103; doi: 10.1063/1.3701728 (2012)
J. Garland, R. i E. James Bradley, “Determinizm, Złożoność i przewidywalność w wydajności komputera.” Dodrukowania dostępne w arXiv.
J. Garland i E. Bradley, “Prognozowanie dynamiki wydajności komputera,” IDA-11 (Postępowanie z 10. Międzynarodowego Sympozjum na temat inteligentnej analizy danych), Porto, w październiku 2011 roku. Springer Lecture Notes in Computer Science pojemność 7014
J. Garland i E. Bradley, “O znaczeniu modelowania nieliniowych w przewidywań wydajności komputera,” IDA-13 (Proceedings of the 12th International Symposium on inteligentnej analizy danych), Londyn, Październik 2013. Z recenzji. Dodrukowania dostępne w arXiv.
T. Mytkowicz, E. Bradley, i A. Diwan, “komputery są Układy dynamiczne,” Chaos 19:033124; doi: 10.1063/1.3187791 (2009)
Link do nagrania z rozmów o pracy, którą dałem w NCAR jesienią 2012 roku.
Wsparcie:

Materiał ten jest oparty na pracy wspieranej przez National Science Foundation pod numerami dotacji SMA-0720692 i CMMI-1162440. Wszelkie opinie, konkluzje i wnioski i zalecenia przedstawione w niniejszym materiale są poglądami autora (-ów) i nie muszą odzwierciedlać poglądów National Science Foundation.

Comments are closed.