微信扫一扫
分享到朋友圈

“表情移植神器”上线,我家爱豆的面瘫演技是不是有救了!

作者:果壳网 来源:果壳网 公众号
分享到:

08-30

作为一个有底线的颜控,追剧总是很烦恼:那些好看的小鲜肉小鲜花,演技大多不咋样。有些粉丝甚至会想:可不可以把戏骨的演技嫁接到全程“瘫痪”的爱豆身上?这听上去太难了吧。


不过最近,发明GPU的公司核弹厂英伟达(NVIDIA)发布了两项重磅技术,让这个有望实现了。一个技术是上个星期发表的与MIT联合研究的“视频-视频合成”技术(video-to-video synthesis,下文简称vid2vid)。

 

图 | 参考资料1


另一个是礼拜一德国发布会上黄仁勋(Jensen Huang)重磅推出的新一代“图灵框架”卡皇 RTX,实现了实时光线追踪(Real-time ray tracking)技术。


图 | 官方发布会截图


被黑科技闪瞎双眼的吃瓜群众们瞬间脑洞大开:这两个堪称“表情移植神器”和“实时渲染怪力圣器”的家伙,是不是可以让影视特效技术大飞跃、能让流量明星从此年产无数部高质量抠图剧呢?


现有的抠图 | 《孤芳不自赏》


vid2vid:由视频合成视频

 

/*

别走,这段强行科普后面有新垣结衣!

*/

 

NVIDIA与MIT的联合研究团队发表的这篇文章名为《视频-视频合成》(Video-to-Video Synthesis),顾名思义,就是从一个原始输入视频,经过合成处理,输出一个新的视频

 

输入的内容主要有两个:一个是主体视频,叫做“语义图”(semantic maps),我们可以把它看作是视频动作的“骨架”;另一个是“现有图像”(past images),我们可以把它看作是视频内容的“皮肉”。

 

图 | 参考资料1

 

语义图和现有图像作为原材料,喂进了一个叫做“顺序生成器”(sequential generator)的模型当中,输出两样东西:“中间帧”(intermediate frame)和 “流谱”(flow map )。“流谱”被用来使“现有图像”产生变化,变化后的图像与“中间帧”结合生成“输出图像”(也可以叫做“输出帧”,毕竟,常识告诉我们,视频是一帧一帧的画面连接起来的)。这个“输出图像”,被迭代进模型,作为下一次运算输入的“现有图像”。

 

此外,还有两个“鉴别器”——“图像鉴别器”(image discriminator)和“视频鉴别器”(video discriminator)。它们被用来评估每一帧画面中的各个特点,以及时间上的连续,来确保输出视频的清晰度、逼真程度、以及时间一致性。

 

图 | 参考资料1

 

嗯,我猜大家并不想看这样

阅读9334
表情 演技 
举报0
关注果壳网微信号:guokr42

用微信扫描二维码即可关注
声明

1、头条易读遵循行业规范,任何转载的稿件都会明确标注作者和来源;
2、本文内容来自“果壳网”微信公众号,文章版权归果壳网公众号所有。

评论
更多

文章来自于公众号:

果壳网

微信号:guokr42

邮箱qunxueyuan#163.com(将#换成@)
微信编辑器
免责声明
www.weixinyidu.com   免责声明
版权声明:本站收录微信公众号和微信文章内容全部来自于网络,仅供个人学习、研究或者欣赏使用。版权归原作者所有。禁止一切商业用途。其中内容并不代表本站赞同其观点和对其真实性负责,也不构成任何其他建议。如果您发现头条易读网站上有侵犯您的知识产权的内容,请与我们联系,我们会及时修改或删除。
本站声明:本站与腾讯微信、微信公众平台无任何关联,非腾讯微信官方网站。