⑴ 为什么游戏比电影的显卡要求高
你所认为的视频对显卡要求不要,基本上是指720P(1280*720 36fps)、1080P(1920*1080 25fps)、1440P(24fps)水平的视频吧?但是若是播放2160P(120fps)的视频,对显卡的要求就极高了,甚至丝毫不亚于大型游戏游戏;
寻常的视频刷新率低(一般24fps~36fps)、数据复杂程度不高,对显卡的要求不大,而反观游戏,在分辨率高的同时,还会“无脑地”提高刷新率(虽然其实肉眼已经很难分辨,不需要提高这么高的水平),此外,游戏的渲染的随机性比视频更大,于是给玩家的客观反映就是“游戏比视频更加吃显卡”;
不过,到目前为止,我国4K(即3840*2160)视频的普及率还是极低的,基本上电影、电视剧的清晰度都维持在1080P(即1920*1080),再加上帧频不超过36fps,所以一般的显卡均能轻松应对。
⑵ 动漫里的画面,电影里的特效,单机游戏里的过场动画哪个成本高
楼主提出了三个概念,我逐一说说,先说成本,如果按照单位时间算的话:
电影特效>动漫画面>=游戏过场
我解释一下,动漫里的画面:楼主所说动漫画面相信指的不是2d动画,应该是指3d动画画面,比如《玩具总动员》这样的三维动画。这种动画全三维制作,当然也依题材风格不同成本也会不同,但由于全片采用全三维制作,在资源整合以及部门配合上效率非常高,所以按单位时间来算(比如10秒钟)成本就低于了电影特效。
而电影特效由于要配合实拍的环境以及人物,牵扯部门人员繁杂,对精细度要求极高;并且量小,这里说的量小指的是特效环节占整个电影片场的比重,有的电影就几十秒的特效,算起来当然比动画贵。
游戏过场比较特殊,因为上述讨论的范畴都有一个前提,就是要达到同样的视觉效果,在这一前提下游戏过场根本没有可比性。
为什么呢?因为以现在流行的做法,游戏中的过场百分之八十都是以即时演算的形式出现,而即时演算的画面是达不到cgi的水平的,(至少现在不能)。什么是即时演算?说白了就是画面和你操作游戏时的画面一样,并不是经过专门制作的动画,而是程序根据模型和剧情设计出来的情节罢了。
当然,游戏过场也有纯cgi的,这种过场的成本和三维动画就差不多了。