NVIDIA将人工智能引入计算图形学 NVIDIA GPU渲染加速视觉特效

描述

近几年,人工智能取得了飞速的发展,并且已经开始应用到各行各业以及生活的的方方面面。NVIDIA也在人工智能领域大放异彩,并将人工智能引入了计算图形学。

NVIDIA GPU渲染

传媒娱乐领域对图像处理和视觉特效的需求日益增加、复杂程度也不断提升,为传统电脑特效制作带来了挑战,视觉特效工作者需要在有限的时间内,更快、更轻松地打造各种复杂、逼真的视觉特效。

一直以来,NVIDIA致力于不断为用户提供非凡的图形和计算性能,为专业化的工作流程注入人工智能、虚拟现实和照片级写实的画质,以适应用户的严苛要求。NVIDIA在计算机图形学方面拥有悠久的历史,现在又将AI领域的专业知识与之相结合,将人工智能引入图形计算,推动了计算图形的创新。


 

  由于每个设计师(无论是产品、建筑、影视…)在设计时遵循的设计流程都是一样的:灵感-设计-模拟仿真-可视化。其中模拟仿真是其中最困难的一环,需要高强度计算、耗时很长、而且需要反复微调、反复渲染。

  在传统设计流程中,设计师需要把作品发到拥有高强度计算能力的服务器上进行渲染仿真,数据需要在本地、服务器、数据中心等地方来回拷贝传输,效率低下。如上文所说,如果两个GP100连在一起使用,并联后能以CPU 18倍的速度输出照片级的图像,可以让这些数据在设计师的电脑上一站式快速完成,不需要来回传送数据,并且缩短了调整后等候再次渲染的时间。

  

  一个更直观的数据是,根据英伟达中国区销售总监何犹卿介绍,一帧4K的《变形金刚3》的电影画面,根据使用2路CPU渲染时需要288小时,而用GPU渲染只需要3个多小时。

  同时,由于其计算功能能够被用于人工智能。未来的设计过程中,电脑可以直接为人类提供设计方案。比如一把椅子,未来我可以告诉电脑,我需要这把椅子拥有大于300磅的承重量,自重不超过15磅,成本不超过100美元,计算机随后可以出几百个符合要求的不同外形方案给我,同时比人类的方案更优秀、更节省材料。


打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分