Po zapowiedzi pełnej wersji Meta Human, Quixel Bridge wyszedł naprzeciw swoim użytkownikom i udostępnił dość pokaźną bazę, zawierającą modele z MetaHuman!
Każdy użytkownik epica może teraz pobrać postać z MetaHuman i wykorzystać ją w dowolny sposób. Jedyne ogranicznenie to przychód z projektu większy niż zakładany w regulaminie epicu. W tym artykule przedstawię Wam kilka kroków procesu importu danych z Quixel Bridge do Maya czy Unreala.
Wchodzimy na stronę: www.quixel.com/bridge i pobieramy Bridge’a.
Po instalacji otwieramy Bridge i logujemy się. Możemy skorzystać z konta epic lub stworzyć sobie nowe konto.
Możemy w niej przeglądać gotowe postaci od MetaHuman i wybrać do wyeksportowania te, które nas interesują.
Mamy kilka opcji exportu, wybór odpowiedniej ścieżki zależy od danego modelu. W standardzie modele te możemy eksportować bezpośrednio do Unreala lub możemy wybrać z listy dany program. (Uwaga – niektóre modele obsługuje tylko Unreal i Maya!)
Oczywiście, żeby wyeksportować model, musimy wcześniej zainstalować plugin, który jest dostępny w panelu Bridge, w menu u góry Edit -> Manage Plugins
Do testów wybraliśmy postać: Chandra. Możemy ją wyeksportować bezpośrednio do Maya. Ustawiliśmy odpowiednie paremetry eksportu, zainstalowaliśmy plugin i kliknęliśmy „export”. Pamiętajcie, żeby przed eksportem – włączyć Maya. W Maya wyskoczył nam komunikat o eksporcie postaci:
Zatwierdzamy i czekamy aż cała postać się załaduje:
Tak się prezentuje nasza postać:
Dobrze jest włączyć wszystkie kontrolki, rigg oraz tekstury. Użyjemy do tego narzędzia Directx Shading:
Dzięki tym zabiegom otrzymujemy całą postać:
A tak prezentuje się rigg wraz z modyfikatorami mięśni, co pozwala osiągnąć niesamowite efekty podczas animacji!
Na koniec jeszcze próbka możliwości ruchu twarzy:
Podsumowując – dzięki Quixel Bridge otrzymujemy w pełni origowaną postać z systemem mięśni oraz świetnie zrobionym Facial riggiem z przejrzystymi kontrolerami. Możemy wykorzystać tą postać naprawdę do wielu rzeczy. Jeżeli będziesz śledzić nasz profil na YT i newslettery, to niedługo zobaczysz do czego my wykorzystaliśmy tą postać! Szykujemy dla Was materiał z wykorzystaniem MoCapu live do silnika Unreal w połączeniu Xsens + FaceWare.
Autor: Michał Chmielewicz | PCC Polska