R***a 发帖数: 41892 | |
b*****a 发帖数: 14583 | |
R***a 发帖数: 41892 | 3 一个场景一个场景,一个物体一个物体recreate? 这工作量真够大的啊
当然原来就用了很多3D建模的电影容易一些。
【在 b*****a 的大作中提到】 : recreate 吧, not extract
|
m*****d 发帖数: 13718 | 4 昨天不是有个3d电视普及贴里讲了?
【在 R***a 的大作中提到】 : 如何实现的? : 如何从平面里得到深度信息的?
|
R***a 发帖数: 41892 | 5 哪里哪里?
【在 m*****d 的大作中提到】 : 昨天不是有个3d电视普及贴里讲了?
|
m*****d 发帖数: 13718 | |
R***a 发帖数: 41892 | |
m*****d 发帖数: 13718 | 8 同主题看啊
发信人: tyning (全副*你上过了么?), 信区: Military
标 题: Re: 俺说两句3D吧
发信站: BBS 未名空间站 (Mon Jan 18 16:49:17 2010, 美东)
嗯,那个眼镜显然要比电影院的偏振眼镜复杂很多。
如果在家里弄两套projector,前面各加个偏振镜,然后align好,那就可以用电影院的
眼镜了:) |
R***a 发帖数: 41892 | 9 你用这个能把2D的飘看成3D的?
【在 m*****d 的大作中提到】 : 同主题看啊 : 发信人: tyning (全副*你上过了么?), 信区: Military : 标 题: Re: 俺说两句3D吧 : 发信站: BBS 未名空间站 (Mon Jan 18 16:49:17 2010, 美东) : 嗯,那个眼镜显然要比电影院的偏振眼镜复杂很多。 : 如果在家里弄两套projector,前面各加个偏振镜,然后align好,那就可以用电影院的 : 眼镜了:)
|
m*****d 发帖数: 13718 | 10 "其实现在的3D显示都是某种意义上的伪3D,就是利用两个眼镜看到的视差来形成3D的视
幻觉,visual illusion。"
反正都是伪3d, 我觉得可以
【在 R***a 的大作中提到】 : 你用这个能把2D的飘看成3D的?
|
|
|
f******r 发帖数: 389 | 11 你完全没理解楼主的意思么,
你这已经是两个片源3D了,楼主是问怎么从一个2D片源转成两个片源变成3D
3D的两个片源不是完全一样的
【在 m*****d 的大作中提到】 : 同主题看啊 : 发信人: tyning (全副*你上过了么?), 信区: Military : 标 题: Re: 俺说两句3D吧 : 发信站: BBS 未名空间站 (Mon Jan 18 16:49:17 2010, 美东) : 嗯,那个眼镜显然要比电影院的偏振眼镜复杂很多。 : 如果在家里弄两套projector,前面各加个偏振镜,然后align好,那就可以用电影院的 : 眼镜了:)
|
m*****d 发帖数: 13718 | 12 我怎么觉得楼主都理解我的意思了
【在 f******r 的大作中提到】 : 你完全没理解楼主的意思么, : 你这已经是两个片源3D了,楼主是问怎么从一个2D片源转成两个片源变成3D : 3D的两个片源不是完全一样的
|
R***a 发帖数: 41892 | 13 我知道你的意思,并且知道你不知道我的意思。
【在 m*****d 的大作中提到】 : 我怎么觉得楼主都理解我的意思了
|
k*****e 发帖数: 22013 | 14 两套projector得放出不同的图象来
两个图像必须要有不同的相差,才能看出3D
这个相差是从深度信息里面得出来的
你以为买两个copy的DVD,用两个projector放,就是3D了啊?哈哈
【在 m*****d 的大作中提到】 : 同主题看啊 : 发信人: tyning (全副*你上过了么?), 信区: Military : 标 题: Re: 俺说两句3D吧 : 发信站: BBS 未名空间站 (Mon Jan 18 16:49:17 2010, 美东) : 嗯,那个眼镜显然要比电影院的偏振眼镜复杂很多。 : 如果在家里弄两套projector,前面各加个偏振镜,然后align好,那就可以用电影院的 : 眼镜了:)
|
l******e 发帖数: 12192 | 15 分特,然后再戴个眼镜,两只眼看同一个被偏振的源,这不是脱裤子放屁么。
【在 m*****d 的大作中提到】 : 同主题看啊 : 发信人: tyning (全副*你上过了么?), 信区: Military : 标 题: Re: 俺说两句3D吧 : 发信站: BBS 未名空间站 (Mon Jan 18 16:49:17 2010, 美东) : 嗯,那个眼镜显然要比电影院的偏振眼镜复杂很多。 : 如果在家里弄两套projector,前面各加个偏振镜,然后align好,那就可以用电影院的 : 眼镜了:)
|
m*****d 发帖数: 13718 | 16 没实验过,不过人家楼主好歹算职业的
【在 l******e 的大作中提到】 : 分特,然后再戴个眼镜,两只眼看同一个被偏振的源,这不是脱裤子放屁么。
|
l******e 发帖数: 12192 | 17 在这个问题上,还真不是
【在 m*****d 的大作中提到】 : 没实验过,不过人家楼主好歹算职业的
|
m*****d 发帖数: 13718 | 18 我知道你的意思,伪3d不一定需要深度信息
【在 R***a 的大作中提到】 : 我知道你的意思,并且知道你不知道我的意思。
|
k*****e 发帖数: 22013 | 19 估计跟以前黑白电影上彩是一样的
就是一帧一帧地人工添加,深度信息靠主观估算。
如果以前拍的毛片里面有多镜头同时摄制的素材,
那些可以拿来算深度吧。我猜....
【在 R***a 的大作中提到】 : 如何实现的? : 如何从平面里得到深度信息的?
|
R***a 发帖数: 41892 | 20 你没理解tyning的伪三D的定义。
他的伪3D是指,目标地点没有真正的一个 3D图像,
而是两个有正确相差的图像分别进入你来的两眼。
你想的伪3D可没有正确相差
【在 m*****d 的大作中提到】 : 我知道你的意思,伪3d不一定需要深度信息
|
|
|
k*****e 发帖数: 22013 | 21 胡说,伪3D也需要深度信息。
【在 m*****d 的大作中提到】 : 我知道你的意思,伪3d不一定需要深度信息
|
R***a 发帖数: 41892 | 22 音乐之声到底是黑白还是彩色拍的?
我印象中小时候在彩电上看到的音乐之声电影是黑白的。
到了美国才看见彩色版的音乐之声,我还以为是后来染色的。
不过imdb里标着的是color
【在 k*****e 的大作中提到】 : 估计跟以前黑白电影上彩是一样的 : 就是一帧一帧地人工添加,深度信息靠主观估算。 : 如果以前拍的毛片里面有多镜头同时摄制的素材, : 那些可以拿来算深度吧。我猜....
|
k*****e 发帖数: 22013 | 23 我印象中的卡萨布兰卡是彩色的,
大学里还跟人打赌,因为我记得英格丽褒曼的黄裙子,印象特别深。
结果打赌输掉了,上彩的片子害死人阿。
【在 R***a 的大作中提到】 : 音乐之声到底是黑白还是彩色拍的? : 我印象中小时候在彩电上看到的音乐之声电影是黑白的。 : 到了美国才看见彩色版的音乐之声,我还以为是后来染色的。 : 不过imdb里标着的是color
|
W*********e 发帖数: 247 | 24 彩色的吧, 我小时候在中央台的译制片栏目看的就是彩色的
【在 R***a 的大作中提到】 : 音乐之声到底是黑白还是彩色拍的? : 我印象中小时候在彩电上看到的音乐之声电影是黑白的。 : 到了美国才看见彩色版的音乐之声,我还以为是后来染色的。 : 不过imdb里标着的是color
|
m*****d 发帖数: 13718 | 25 嗯,我晕菜了
你问的问题答案好像是用软件分析估计2d里面的3d信息,自动做的
比如这个公司http://www.ddd.com/
居然可以实时转换
"The technology analyzes the color, position and motion characteristics of
objects in a sequence of video frames and uses depth estimation to render
stereoscopic views. The approach is broadly applicable to any 3D display
device including glasses-based and glasses-free systems."
正宗的伪3D
【在 R***a 的大作中提到】 : 你没理解tyning的伪三D的定义。 : 他的伪3D是指,目标地点没有真正的一个 3D图像, : 而是两个有正确相差的图像分别进入你来的两眼。 : 你想的伪3D可没有正确相差
|
m*****d 发帖数: 13718 | 26 那个3d显卡估计也是一个原理
【在 m*****d 的大作中提到】 : 嗯,我晕菜了 : 你问的问题答案好像是用软件分析估计2d里面的3d信息,自动做的 : 比如这个公司http://www.ddd.com/ : 居然可以实时转换 : "The technology analyzes the color, position and motion characteristics of : objects in a sequence of video frames and uses depth estimation to render : stereoscopic views. The approach is broadly applicable to any 3D display : device including glasses-based and glasses-free systems." : 正宗的伪3D
|
R***a 发帖数: 41892 | 27 3D显卡不用,3D游戏都是3D建模,显卡进行render计算。
显卡自己知道深度信息
【在 m*****d 的大作中提到】 : 那个3d显卡估计也是一个原理
|
k*****e 发帖数: 22013 | 28 这个算是伪伪3D
不过我倒是很感兴趣他们怎么通过2d画面"estimate"出深度信息来?
电影里面有运动画面,前后比较还确实能获取深度信息。
要是一个定格镜头,估计就不行了。
【在 m*****d 的大作中提到】 : 嗯,我晕菜了 : 你问的问题答案好像是用软件分析估计2d里面的3d信息,自动做的 : 比如这个公司http://www.ddd.com/ : 居然可以实时转换 : "The technology analyzes the color, position and motion characteristics of : objects in a sequence of video frames and uses depth estimation to render : stereoscopic views. The approach is broadly applicable to any 3D display : device including glasses-based and glasses-free systems." : 正宗的伪3D
|
s****a 发帖数: 131 | 29 先做segmentation把物体分开,然后按运动过程中哪个物体压着哪个物体的关系分开吧
这个东西也不可能做的准确的,大概是个意思就行了
【在 k*****e 的大作中提到】 : 这个算是伪伪3D : 不过我倒是很感兴趣他们怎么通过2d画面"estimate"出深度信息来? : 电影里面有运动画面,前后比较还确实能获取深度信息。 : 要是一个定格镜头,估计就不行了。
|
m*****d 发帖数: 13718 | 30 定格镜头估计可以靠人工定义
【在 k*****e 的大作中提到】 : 这个算是伪伪3D : 不过我倒是很感兴趣他们怎么通过2d画面"estimate"出深度信息来? : 电影里面有运动画面,前后比较还确实能获取深度信息。 : 要是一个定格镜头,估计就不行了。
|
|
|
l*******r 发帖数: 623 | 31 他们做的很不错,实时转的都像那么回子事
【在 m*****d 的大作中提到】 : 嗯,我晕菜了 : 你问的问题答案好像是用软件分析估计2d里面的3d信息,自动做的 : 比如这个公司http://www.ddd.com/ : 居然可以实时转换 : "The technology analyzes the color, position and motion characteristics of : objects in a sequence of video frames and uses depth estimation to render : stereoscopic views. The approach is broadly applicable to any 3D display : device including glasses-based and glasses-free systems." : 正宗的伪3D
|
b*****a 发帖数: 14583 | 32 digital 的片子应该有大概的距离信息,跟照相机镜头反馈给机身的类似
比如 football 那条黄线在屏幕上怎么画,是实时计算出来的(这可不是直线,所有的
橄榄球场都是
中间高,两边低,要让电视观众看到黄线跟场地上的白线平行,转播方要对场地建模,
所有的摄像机的
坐标也都用来计算黄线的位置)
不知道胶片的怎么回事
【在 R***a 的大作中提到】 : 一个场景一个场景,一个物体一个物体recreate? 这工作量真够大的啊 : 当然原来就用了很多3D建模的电影容易一些。
|
d********e 发帖数: 1468 | 33 这个我前一阵正好稍稍研究过,见:
http://3dvision-blog.com/2d-to-3d-realtime-video-conversion-with-avisynth-v0-2b/
里面源代码都有,大致原理是将2D画面每一帧作变换弄成两帧,这两帧做的变换稍有不
同,造成左右眼的差异,从而实现3D的深度。变换的关键在那个skew()函数上。
实际效果一般,有点像把一张平面纸稍稍拧转的感觉,比起真正的3D效果还是差不少。 |
f******r 发帖数: 389 | 34 本来是2D的转成3D估计还不如原来的2D好看,信息没有就是没有,再计算也有不少误差 |
a*****n 发帖数: 653 | 35 单就早期2D电影转3D而言,应该是一个场景一个场景靠人工重建。反正电影公司是出得
起这个钱的。Cameron在Comic Con关于Titanic 3D的那个座谈里就提到,这个工作需要
他的高度参与,"to make sure the stereo space decisions are made correctly"。
所以整个过程预计需要一年多。
【在 f******r 的大作中提到】 : 本来是2D的转成3D估计还不如原来的2D好看,信息没有就是没有,再计算也有不少误差
|
b****n 发帖数: 84 | 36 差不多
1. matchmove 估算出镜头的位置
2. 反向估算出每个物体的位置
3. 生成depth map
4. rotoscope出每个物体,转成伪3d
5. 做clean plate用于那些算不出来3d位置的
6. 合成出新的左眼和右眼的图像
【在 k*****e 的大作中提到】 : 估计跟以前黑白电影上彩是一样的 : 就是一帧一帧地人工添加,深度信息靠主观估算。 : 如果以前拍的毛片里面有多镜头同时摄制的素材, : 那些可以拿来算深度吧。我猜....
|
e*******r 发帖数: 1433 | 37 现在已经有公司在开始做real time的2D转3D的算法了,在3D TV上应用。 |
J*****s 发帖数: 185 | 38 Nightmare before Christmas 3D版本的做法是把2D画面里的元素切割出来,拉开距离
,用两个相机重新渲染一次。不同层之间的gap手工补上。
【在 R***a 的大作中提到】 : 如何实现的? : 如何从平面里得到深度信息的?
|
y****g 发帖数: 36950 | 39 至少要有绿背景的演员的图层信息保留,需要把图层分开给不同的深度信息。
然后才能加工出来演员那个图层和背景层不同深度3D相差
这种片子里背景都是3D做的,背景的Z深度比前景真实人物的还细致一些 |
J*****s 发帖数: 185 | 40 如果一开始没打算做成3D的, 通常没人保留这些信息。 都是后来roto出来的。
【在 y****g 的大作中提到】 : 至少要有绿背景的演员的图层信息保留,需要把图层分开给不同的深度信息。 : 然后才能加工出来演员那个图层和背景层不同深度3D相差 : 这种片子里背景都是3D做的,背景的Z深度比前景真实人物的还细致一些
|