Polska firma tworzy narzędzie do metaverse. Avatary jak żywe
Polska firma EpicVR tworzy narzędzie, które ma współpracować z Metaverse. Wykorzystana przez nią technologia ma na celu stworzenie realistycznych avatarów, które ułatwią komunikację.
18.05.2022 13:24
Firma EpicVR z Krakowa ma doświadczenie w tworzeniu aplikacji wykorzystujących wirtualną i rozszerzoną rzeczywistość. Wykorzystuje ona technikę animacji trójwymiarowych modeli nazywaną Mocap. Pozwala ona na realistyczne oddanie ruchów nie tylko kończyn czy całego ciała, ale także twarzy - jej mimiki, ruchu oczu oraz warg.
Nowy produkt jest częścią projektu "Innowacyjne samouczące narzędzie ułatwiające projektowanie trybu multiplayer w aplikacjach VR". NCBR przeznacza na prace nad narzędziem 5 milionów złotych. Efekty pracy będą mogły być wykorzystywane przez użytkowników Metaverse, ale także twórców gier, reklam czy filmów animowanych.
EPICVR - Face Mocap
- Mocap to nie tylko animacja ruchu kończyn, ale też doskonałe odwzorowanie ruchów mimicznych twarzy i ust zgodnie z wypowiadaną sekwencją słów. To pozwala osiągnąć wiarygodność ekspresji modelu 3D, niezależnie od tego, czy jego właściciel wyraża radość, czy zdziwienie. Do produkcji tego typu animacji wykorzystywana jest technologia motion-capture, ciesząca się coraz większą popularnością i stosowana nie tylko w rozrywce, ale też w przemyśle filmowym i szkoleniach. Oznacza ona płynny zapis ruchów, odegranych przez człowieka według scenariusza - zamiast tworzenia ich sekwencji klatka po klatce - mówi Adrian Łapczyński, prezes EpicVR.
Wykorzystanie techniki motion-capture pozwala na znaczne przyspieszenie czasu tworzenia animacji. Wynika to z faktu, że zamiast korzystać z pracy grafików, wystarczy zarejestrować ruchy aktora. Przypomina to poniekąd nagrywanie filmu.
- Aktor wyposażony w odpowiedni sprzęt identyfikujący jego ruchy w przestrzeni odgrywa scenę opisaną w konkretnym projekcie czy scenariuszu. Nagranie animacji twarzy ma miejsce jednocześnie przy użyciu innego, niezależnego sprzętu. Kombinacja tych dwóch technologii sprawia, że po odegraniu scen jesteśmy w stanie uzyskać gotowy i płynnie zaanimowany ruch szkieletu, do którego należy przypisać wybrany przez użytkownika model 3D. Wówczas animacja jest gotowa - wyjaśnia Adrian Łapczyński.
Karol Kołtowski, dziennikarz dobreprogramy.pl