فناوری جدید Runway؛ متحرک‌سازی شخصیت‌ها تنها با یک ویدیو + فیلم
آخرین اخبار:
کد خبر:۱۲۸۵۹۲۷

فناوری جدید Runway؛ متحرک‌سازی شخصیت‌ها تنها با یک ویدیو + فیلم

شرکت Runway با معرفی مدل جدید «Act-Two»، مسیر متحرک‌سازی شخصیت‌ها را دگرگون کرد؛ فناوری‌ای مبتنی بر هوش مصنوعی که بدون نیاز به سنسور و لباس‌های تخصصی، تنها با یک ویدیو ساده، شخصیت‌های دیجیتال را زنده می‌کند.

فناوری جدید Runway؛ متحرک‌سازی شخصیت‌ها تنها با یک ویدیو + فیلم

به گزارش گروه دانشگاه خبرگزاری دانشجو، شرکت Runway از مدل جدید موشن کپچر خود با نام «Act-Two» رونمایی کرد؛ فناوری‌ای مبتنی بر هوش مصنوعی که فرآیند پیچیده و پرهزینه متحرک‌سازی شخصیت‌ها را به کاری ساده و سریع تبدیل می‌کند.

 

در روش‌های سنتی موشن کپچر، نیاز به استفاده از لباس‌های مخصوص، سنسور‌های گران‌قیمت و تجهیزات پیشرفته تصویربرداری بود؛ اما مدل Act-Two تنها با دریافت دو ورودی ساده، تمامی حرکات، حالات چهره و حتی نحوه صحبت‌کردن یک فرد را به شخصیت موردنظر منتقل می‌کند.

 

برای استفاده از این مدل، کاربران کافی است یک ویدیوی ساده از یک فرد در حال صحبت یا حرکت ضبط کنند و به همراه یک تصویر یا ویدیوی ثابت از کاراکتری که می‌خواهند متحرک شود، در اختیار مدل قرار دهند. سپس، Act-Two با بهره‌گیری از هوش مصنوعی، شخصیت دوم را با همان حرکات و حالات طبیعی فرد اول زنده می‌کند.

 

این فناوری به کاربران مستقل، طراحان بازی، انیماتور‌ها و تولیدکنندگان محتوا این امکان را می‌دهد تا بدون نیاز به ابزار‌های تخصصی یا تیم‌های حرفه‌ای، شخصیت‌های خود را به‌راحتی متحرک‌سازی کنند.

 

نسخه فعلی مدل Act-Two هنوز به‌صورت عمومی عرضه نشده و در حال حاضر تنها برای گروهی از کاربران منتخب Runway در حالت بتا (آزمایشی) فعال است. انتظار می‌رود در آینده نزدیک، دسترسی گسترده‌تری به این ابزار فراهم شود.

 

Runway پیش‌تر با مدل‌های Gen-۱ و Gen-۲ در زمینه تولید ویدیو با هوش مصنوعی شناخته شده بود و حالا با Act-Two، گامی بلند در democratizing (همگانی‌سازی) فناوری موشن کپچر برداشته است.

 

کد ویدیو
پربازدیدترین آخرین اخبار