
فناوری جدید Runway؛ متحرکسازی شخصیتها تنها با یک ویدیو + فیلم
به گزارش گروه دانشگاه خبرگزاری دانشجو، شرکت Runway از مدل جدید موشن کپچر خود با نام «Act-Two» رونمایی کرد؛ فناوریای مبتنی بر هوش مصنوعی که فرآیند پیچیده و پرهزینه متحرکسازی شخصیتها را به کاری ساده و سریع تبدیل میکند.
در روشهای سنتی موشن کپچر، نیاز به استفاده از لباسهای مخصوص، سنسورهای گرانقیمت و تجهیزات پیشرفته تصویربرداری بود؛ اما مدل Act-Two تنها با دریافت دو ورودی ساده، تمامی حرکات، حالات چهره و حتی نحوه صحبتکردن یک فرد را به شخصیت موردنظر منتقل میکند.
برای استفاده از این مدل، کاربران کافی است یک ویدیوی ساده از یک فرد در حال صحبت یا حرکت ضبط کنند و به همراه یک تصویر یا ویدیوی ثابت از کاراکتری که میخواهند متحرک شود، در اختیار مدل قرار دهند. سپس، Act-Two با بهرهگیری از هوش مصنوعی، شخصیت دوم را با همان حرکات و حالات طبیعی فرد اول زنده میکند.
این فناوری به کاربران مستقل، طراحان بازی، انیماتورها و تولیدکنندگان محتوا این امکان را میدهد تا بدون نیاز به ابزارهای تخصصی یا تیمهای حرفهای، شخصیتهای خود را بهراحتی متحرکسازی کنند.
نسخه فعلی مدل Act-Two هنوز بهصورت عمومی عرضه نشده و در حال حاضر تنها برای گروهی از کاربران منتخب Runway در حالت بتا (آزمایشی) فعال است. انتظار میرود در آینده نزدیک، دسترسی گستردهتری به این ابزار فراهم شود.
Runway پیشتر با مدلهای Gen-۱ و Gen-۲ در زمینه تولید ویدیو با هوش مصنوعی شناخته شده بود و حالا با Act-Two، گامی بلند در democratizing (همگانیسازی) فناوری موشن کپچر برداشته است.