m********n 发帖数: 3812 | 1 如果换下一帧的时候不是每个像素点都重新渲染一次,而只是更新哪些点需要改变些什
么,这样的算法可否节省计算量或者流量呢? | i****a 发帖数: 36252 | | m********n 发帖数: 3812 | 3 Not graphics design?
: 是一个 CS PhD thesis 的好课题
【在 i****a 的大作中提到】 : 是一个 CS PhD thesis 的好课题
| m********n 发帖数: 3812 | 4 话说,马工研究生毕业项目搞的那些创新算法什么的,能申请专利坐着收钱吗?
【在 i****a 的大作中提到】 : 是一个 CS PhD thesis 的好课题
| s*******h 发帖数: 1361 | 5 渲染本身不一定是按像素点一个一个来的, 可以按object或其它方法进行. 但显卡本身
输出是raw image, 填充上色只能一帧一帧, 一个像素一个像素来. 如果显卡愿意输出
压缩过的image, 譬如用HEVC之类的算法改变存储方式, 应该是可以在渲染阶段就结合
压缩算法来优化的. 不过这个现阶段是分开进行的.
渲染填充过程, 现在也是有很多算法来节省计算量的. 譬如TXAA是用时间上的连续信息
来抗锯齿(就是用低像素渲染来填充高像素), DLSS用deep learning利用时间和空间上
的信息全局train model来填充高像素, 等等.
【在 m********n 的大作中提到】 : 如果换下一帧的时候不是每个像素点都重新渲染一次,而只是更新哪些点需要改变些什 : 么,这样的算法可否节省计算量或者流量呢?
| m********n 发帖数: 3812 | 6 虽然我不是完全看懂,但是很厉害。
看来我的脑子还没有完全out dated.
【在 s*******h 的大作中提到】 : 渲染本身不一定是按像素点一个一个来的, 可以按object或其它方法进行. 但显卡本身 : 输出是raw image, 填充上色只能一帧一帧, 一个像素一个像素来. 如果显卡愿意输出 : 压缩过的image, 譬如用HEVC之类的算法改变存储方式, 应该是可以在渲染阶段就结合 : 压缩算法来优化的. 不过这个现阶段是分开进行的. : 渲染填充过程, 现在也是有很多算法来节省计算量的. 譬如TXAA是用时间上的连续信息 : 来抗锯齿(就是用低像素渲染来填充高像素), DLSS用deep learning利用时间和空间上 : 的信息全局train model来填充高像素, 等等.
|
|