a********l 发帖数: 39524 | 1 跳老凑上前,从口袋里掏出一叠百元的美钞,缓缓的塞进贪玩的小嘴里,口中喃喃念到
,今年收成不好啊,还到处有人上街闹事要把我们推翻,这些不多,先将就吃点吧,苦
了孩子你了。。。 |
|
s*****e 发帖数: 21415 | 2 去去…… 泰老才是这方面的专家啊,人家职业搞光学的。。。 |
|
h******g 发帖数: 11250 | 3 泰老在一边扯了扯JO的衣袖,附在耳边说
JO,台下众人还等着您给讲镜头设计呢 |
|
a********l 发帖数: 39524 | 4 继续说到,好羡慕你,贪玩,芙妹,x5等人啊,我现在觉睡不够,家务做不完,投资回
报率达不到40%,我好惨啊。
贪玩听得只能落泪:居然这世界上还有不能一年3次去阿拉斯加旅行,烧五位数价格器
材的可怜人,这世界真的还有穷人啊,55555。 |
|
|
|
|
|
|
h*******x 发帖数: 12808 | 10 原来是这样,这需要好多个ccd吧?还是一个ccd分几个区? |
|
D*****I 发帖数: 8268 | 11 一个ccd,加了很多微透镜
多个ccd和一个ccd没差别 |
|
|
p*****n 发帖数: 265 | 13 说了半天,这个paper在哪里啊?
贴个link瞻仰一下吧。 |
|
|
O*******d 发帖数: 20343 | 15 这个相机的图像怎么可以显示3D? 我对后期对焦不很感兴趣,对3D很感兴趣。 |
|
|
|
|
|
w***n 发帖数: 1084 | 20 似乎没什么人搞graphics或者computational photography的阿。
Light field这个idea提出来已经10多年了。这个idea和vision里面的一个lumigraph基本是一回事情。具体地说,就是考虑到三维空间里面的光都是一条线,每条线可以参数化成一个点(3D)和一个方向(2D)。如果不考虑光在这条线上的衰减,那么可以继续简化为一个4D(2D+2D)的光空间。这个空间就是Light field。
原来的light field是用好多个相机摆一堆拍出来的,每个相机都是对4D空间的一个2D采样,所以可以随便换视角(只要在相机覆盖的范围内)。但Ng的work主要做的是怎么在一个single view上拍不同focus length的照片,用来refocus。虽然也是采样,但空间要小很多。所以他做出来的实际上是原来意义上的light field的一个小子集。在小范围上动动视角有点3D效果在3D电视上应该没有问题,但大角度的显然handle不了。
至于到怎么拍,那就有很多方法了,什么Microlens,什么搞个有coded aperture的compressi... 阅读全帖 |
|
m******s 发帖数: 204 | 21 请教一下这里面涉及到并行计算吗?另外,不太清楚和图形学有什么关系?我理解的三
维图形学两大分支:扫描线渲染和光线追踪。请赐教。
基本是一回事情。具体地说,就是考虑到三维空间里面的光都是一条线,每条线可以参
数化成一个点(3D)和一个方向(2D)。如果不考虑光在这条线上的衰减,那么可以继续简
化为一个4D(2D+2D)的光空间。这个空间就是Light field。
2D采样,所以可以随便换视角(只要在相机覆盖的范围内)。但Ng的work主要做的是怎
么在一个single view上拍不同focus length的照片,用来refocus。虽然也是采样,但
空间要小很多。所以他做出来的实际上是原来意义上的light field的一个小子集。在
小范围上动动视角有点3D效果在3D电视上应该没有问题,但大角度的显然handle不了。
compressive sensing,具体就不说了。他的paper一部分是关于硬件,一部分是关于用
wavelet的理论,时间太长,记不了那么多了。 |
|
|
w***n 发帖数: 1084 | 23 并行算法只和减少计算量有关。你理解的scanline和ray tracing只是Physically based rendering的两种算法(其实还有很多别的,比如Radiosity,只是现在用的人不多了)。中国人搞这个方向比较多。
图形学的内容大着了,基本上三大块:geometry, rendering, animation。其中Rendering分physically based rendering和image based rendering两大块。 light field基本上是从最早的image based rendering上衍生出来的。而computational photography是近5,6年才火起来的,算是一个交叉学科。 |
|
w***n 发帖数: 1084 | 24 我认为和CT没有什么太大关系,尤其是用Microlens的话。 |
|
D*****I 发帖数: 8268 | 25 Seeing in 3D.....类似3D影片的效果
of |
|
P***P 发帖数: 63 | 26 粗粗看了一遍论文,基本感觉是这样的:
把大镜头虚拟分成不同的区域(sub-aperture),这样相当很多不同的小相机同时从不同
角度照相,从而产生像差(parallex),这样就能提取3D信息了。问题是不用光场(
light field)相机不能分开这些重合在一起的子图片,所以一定要理清光线路线,重整
(re-sorting)光线,分解出一定数量的子图片。
感慨一句,有个光场相机,真是想干啥都可以啊! |
|
|
|
|
|
|
h******g 发帖数: 11250 | 32 应该把最后一位去了才合理
不然8G 16G一个价格多不合理 |
|
|
|
|
x*****7 发帖数: 308 | 36 图--个人感觉这种才是未来--无穷景深
如果能同时做到F number 很小(很快)的话。 |
|
b****r 发帖数: 17995 | 37 这个本版讨论过很多次了,景深很深很深的镜头早就有了,比如动物世界里拍小昆虫,
你自己的经验就知道,不用这种技术根本无法保证足够光量和很深的景深。这种镜头很
贵很复杂就是了 |
|
|
|
|
k**o 发帖数: 3006 | 41 小相机还挺可爱的,3D效果确实不错
这玩意儿吧,就像iPhone一代,现在看不出它的好,以后应该潜力还是非常大的
至少向民用市场迈出了一步
拍了张照片,本来想贴上来的,发现找不到贴附件的链接了……唉,不会用web界面啊
orz |
|
|
|
k**o 发帖数: 3006 | 44 哦,demo拍的图啊,这个真没有。。。它家网站上不是很多嘛。 |
|
t****g 发帖数: 35582 | 45 他们那个resolution换lightfield牺牲的太大了。
至少要9:1,精度好一点要16:1。 |
|
k**o 发帖数: 3006 | 46
同意,不过我觉得不严肃的拍照是够用了。
追求sharpness, resolution,还是不用想了,呵呵 |
|
|
s*****e 发帖数: 21415 | 48 个人谨慎的觉得前途不大
这年头iphone都8M了。。 |
|
x****c 发帖数: 25662 | 49 在fb上看过了
上效果图啊
你们要这个东西是公用? |
|
|