Systemy kłamią na temat użycia procesorów, z roku na rok jest coraz gorzej
Coraz szybsze te nasze komputery. Jakby się tak zastanowić, towłaściwie nie wiadomo, dlaczego tak dużo czasu wciąż zajmują tepodstawowe operacje systemowe, skoro w benchmarkach rok do rokuwidać, że sprzęt jest coraz szybszy. A może w rzeczywistościwcale taki szybki nie jest? Ciekawe stanowisko w tej sprawie zająłstarszy architekt Netfliksa, Brandon Gregg. Podważył on wartośćjednego z kluczowych parametrów, jakie wykorzystujemy przy oceniewydajności – użycia procesora (CPU Utilization). Zdaniem tegoeksperta nie tylko podawane przez systemy operacyjne użycieprocesora mija się z rzeczywistością. W rzeczywistości parametrten stale się pogarsza.
03.05.2018 15:45
Użycie procesora jest kluczowym wskaźnikiem wydajności, służącądo śledzenia regresji lub ulepszeń, dającą dobry wgląd w wąskiegardła systemu.
Załóżmy, że jednordzeniowy procesor jest taktowany 1 GHz.Użycie procesora w tym scenariuszu to procent czasu spędzanegoprzez procesor na wykonywaniu pracy (w przeciwieństwie dobezczynności). Jeśli ten procesor 1,0 GHz wykonuje 800 milionówcykli pracy na sekundę, to jest on w 80% wykorzystywany w tejsekundzie. Jeśli wskaźnik ten osiągnie 100%, oznacza to, żesystem nie może już działać szybciej lub przyjąć więcej zadań.
Oczywiście od dawna już nie widzimy jednordzeniowych procesorówtaktowanych stalym zegarem. Współczesne układy mają wiele rdzenio dynamicznie zmieniającej się częstotliwości, do tego dochodzisprzętowa wielowątkowość i współdzielone między rdzeniamibufory. Zasadniczo jednak uważa się, że procesory o wyższejwydajności (czy to za sprawą wyższej częstotliwości zegara czywiększej liczby dostępnych rdzeni) będą dla danego obciążeniaroboczego raportowały niższe użycie w różnych narzędziachsystemowych, takich jak windowsowy menedżer zadań (taskmgr.exe) czylinuksowy top.
CPU utilization is wrong
Brandon Gregg w swoim wystąpieniu, które możecie obejrzeć napowyższym wideo, każe nam zwątpić w ten pomiar. Od czasówpojawienia się HyperThreadingu w procesorach Intela, stan zasobówprzedstawianych w menedżerze zadań i zasobów faktycznie dostępnychmają ze sobą coraz mniej wspólnego – system operacyjny zachowujesię tak, jakby logiczny rdzeń był fizycznym rdzeniem, w ten sposóbmierząc użycie procesora.
Sęk w tym, że te rdzenie stały się zbyt szybkie dla komputera.Kiedy widzimy w monitorze systemowym, że użycie procesora jest na90%, to może się nam to wydawać, że 90% mocy obliczeniowej CPUoddane jest jakimś pożytecznym zajęciom, a 10% idzie na jałowymbiegu. Nic z tego, zapewnia Gregg. W rzeczywistości wygląda toznacznie gorzej: w zdecydowanej większości CPU niczego nie robi,większość wątków czeka sobie na dane z podsystemów pamięci,które nie nadążają za tym, co się dzieje.
Z roku na rok przepaść między wydajnością procesorów apamięci rośnie. Projektanci architektur sprzętowych próbują sięratować przed tym wąskim gardłem, budując rozmaite strukturybuforowania (L1, L2, L3), ale w tym roku dostali bardzo po głowie.Wydarzyło się coś nieprzewidzianego – łatki na luki Meltdown iSpectre.
Ekspert Netfliksa w swoim wystąpieniu pokazuje, jaki faktyczniełatki te wpływ mają na serwery o takich samych parametrach,uruchamiające te same obciążenia robocze. Najwyraźniej nieustanneczyszczenie bufora TLB (Translation Lookaside Buffer) powodujezadławienie CPU – i to jest zgłaszane jako „użycie procesora”.W rzeczywistości nie mamy do czynienia z zadławionym procesorem,który zamiast np. spać i oszczędzać energię, po prostu czeka namożliwość zrobienia czegoś użytecznego.