AMD Fusion Developer Summit 2012, czyli wieści o układach APU prosto z Ameryki
19.06.2012 21:39
W minionym tygodniu w Bellevue, WA w Stanach Zjednoczonych odbył się AMD Fusion Developer Summit 2012 - jedna z największych, corocznych konferencji technicznych firmy AMD na świecie. Reprezentując redakcję dobrychprogramów miałem okazję w niej uczestniczyć :) Prezentujemy teraz podsumowanie najciekawszych i najważniejszych nowości, a także krótki wywiad wideo z Manju Hegde, Corporate Vice President w firmie AMD odpowiedzialnym za dział heterogenous computing.
Co oznacza jednak ten skomplikowany termin? Heterogenous computing to w wielkim skrócie wykorzystanie połączenia mocy obliczeniowej różnego typu - zarówno skalarnej mocy procesora (CPU), jak i przetwarzania równoległego karty graficznej (GPU). Połączenie tych dwóch układów, a także dodatkowych kontrolerów niezbędnych do ich współpracy nazywa się APU - Accelerated Processing Unit. Oznacza to, że GPU "przyspiesza" obliczenia CPU, choć w praktyce często okazuje się, że to właśnie GPU najlepiej radzi sobie z obliczeniami. Układy APU firmy AMD ogłoszone zostały światu w 2006 roku, zaś na szeroki rynek trafiły pod postacią Llano w styczniu 2011 roku. W tym roku debiutuje druga generacja, Trinity.
Konferencja AMD Fusion Developer Summit 2012 kierowana była przede wszystkim do deweloperów, ale na miejscu okazało się, że rozpiętość tematyczna agendy jest znacznie szersza. Do dyspozycji uczestników było aż 10 ścieżek tematycznych, spośród których każdy mógł samodzielnie ułożyć własny harmonogram lub też zrezygnować z sesji o danej godzinie i udać się na jedną z licznych demonstracji. Najwięcej stanowisk demonstracyjnych znajdowało się w tzw. Experience Zone, gdzie na własne oczy można było zobaczyć na przykład, jak platforma AMD Trinity radzi sobie z transkodowaniem wideo.
W oddzielnej sali można było wziąć udział w demonstracji bardzo interesującej technologii emisji dźwięku 3D - MDA firmy SRS. Dotychczas ścieżka dźwiękowa, np. w filmie czy albumie muzycznym, zakodowana była w jednym lub kilku wariantach - np. stereo, 5.1 itp. W zależności od możliwości naszego sprzętu grającego, mogliśmy wybrać odpowiednią ścieżkę i cieszyć się lepszą bądź też nieco gorszą jakością dźwięku. Tak czy inaczej jednak w najlepszym przypadku ograniczeni byliśmy do tych kilku czy kilkunastu kanałów, a zmiana konfiguracji czy lokalizacji głośników wiązała się z koniecznością zmiany materiału źródłowego. W przypadku MDA mamy do czynienia z technologią, gdzie każdy dźwięk jest opisany w czterech wymiarach: posiada dokładną lokalizację w przestrzeni (względem widza) i oczywiście w czasie. To sprawia, że specjalny mechanizm jest w stanie na żywo renderować audio jednego rodzaju na dowolną liczbę głośników w dowolnej konfiguracji i lokalizacji. Nie ma potrzeby przygotowywania ścieżek dźwiękowych na różne konfiguracje, a im więcej więc głośników, tym lepiej - teoretycznie podłączyć można ich nieograniczoną liczbę. W niedużej sali demonstracyjnej znalazło się kilkanaście głośników i trzeba przyznać, że robiły spore wrażenie, choć uczciwie muszę stwierdzić, że apetyty uczestników po bardzo obiecujących zapowiedziach były chyba jednak mimo wszystko zbyt duże ;‑)
Zdecydowanie najważniejszym wydarzeniem towarzyszącym konferencji było założenie otwartej fundacji wspierającej rozwój sprzętu i oprogramowania wykorzystującego przetwarzanie równoległe i układy APU - Heterogenous System Architecture Foundation. Założyciele fundacji ogłosili jej powstanie podczas sesji generalnej otwierającej całą konferencję. Wśród firm-założycieli znalazły się AMD, ARM, Imagination, MediaTek i Texas Instruments.
Niewątpliwie układy APU to strategiczny kierunek rozwoju dla firmy AMD na przyszłość. Lisa Su z AMD otwierająca konferencję od razu zapowiedziała, że firma postawiła praktycznie wszystko na jedną kartę. Wygląda jednak na to, że - przynajmniej w tej chwili - jest to bardzo dobry kierunek. Obecnie AMD nie ma bowiem w zasadzie żadnej konkurencji jeśli chodzi o połączenie mocy obliczeniowej CPU i GPU. Nikt z innych dużych graczy na tym rynku nie posiada bowiem takiego zaplecza technologicznego jak AMD, które przecież nie tak dawno kupiło firmę ATI, jednego z czołowych producentów układów graficznych. Konkurenci, którym bardzo dobrze wychodzi produkcja procesorów lub kart graficznych, muszą więc sami uczyć się, jak te dwie rzeczy połączyć... albo kupić partnera, tak jak zrobiło to AMD. Pytanie tylko, czy jest na rynku jeszcze miejsce dla drugiej tak dużej fuzji?
W kuluarach konferencji rozmawiałem z Manju Hegde, który w AMD zajmuje stanowisko Corporate Vice President i jest szefem całego działu odpowiedzialnego heterogenous computing. Co ciekawe, Manju jeszcze kilka lat temu był szefem firmy Ageia, która opracowała między innymi technologię PhysX - w 2008 roku kupioną przez... NVIDIA. W 2010 roku Manju zmienił jednak barwy i rozpoczął pracę w AMD, gdzie w całości mógł poświęcić się rozwojowi heterogenous computingu. Pytaliśmy go, skąd pomysł na tak intensywną eksploatację przetwarzania równoległego w AMD oraz jakie AMD widzi zagrożenia na tym polu ze strony konkurencji - czy w ogóle możemy tu mówić o konkurencji? Na koniec krótki przegląd najważniejszych nowości w platformie AMD Trinity.
[video=33935|221|20120619171727.png|video/AFDS2012-ManjuHegde-360p.mp4|video/AFDS2012-ManjuHegde-720p.mp4|video/AFDS2012-ManjuHegde.xml][/video]
O szczegółach Trinity nie będę się tutaj rozpisywać, zapraszam do obejrzenia wideo, a później do lektury zapowiedzi naszego testu tej platformy. Pełny test ukaże się w ciągu kilku dni na łamach naszego labu - będzie to wynik zabawy z referencyjnym notebookiem dostarczonym przez AMD pracującym pod kontrolą Trinity właśnie.