太阳城集团

  • / 11
  • 下载费用:30 金币  

一种基于光场太阳城集团的空间深度提取方法.pdf

摘要
申请专利号:

太阳城集团CN201610578644.8

申请日:

2016.07.18

公开号:

CN106257537A

公开日:

2016.12.28

当前法律状态:

实审

有效性:

审中

法律详情: 授权|||实质审查的生效IPC(主分类):G06T 7/00申请日:20160718|||公开
IPC分类号: G06T7/00 主分类号: G06T7/00
申请人: 浙江大学
发明人: 李晓彤; 马壮; 岑兆丰; 兰顺; 陈灏
地址: 310027 浙江省杭州市西湖区浙大路38号
优先权:
专利代理机构: 杭州天勤知识产权代理有限公司 33224 代理人: 胡红娟
PDF完整版下载: PDF下载
法律状态
申请(专利)号:

太阳城集团CN201610578644.8

授权太阳城集团号:

||||||

法律状态太阳城集团日:

2019.04.09|||2017.01.25|||2016.12.28

法律状态类型:

太阳城集团授权|||实质审查的生效|||公开

摘要

本发明公开了一种基于光场太阳城集团的空间深度提取方法,包括如下步骤:步骤1,在四维光场数据中选定参考视点,计算参考视点处图像边缘成分的空间深度;步骤2,对参考视点处图像进行区域分割运算,按照颜色或亮度均一性将其分为若干区域;步骤3,对分割后的各区域边缘的空间深度作修正,根据修正后的空间深度对区域中心部分的空间深度作插值运算。本发明通过禁忌搜索、区域分割、深度插值等方法,避免了空间深度描述函数优化方法所面对的描述函数选择困难和运算太阳城集团不确定等问题,实现了对空间深度提取的快速、准确运算。

权利要求书

1.一种基于光场太阳城集团的空间深度提取方法,其特征在于,包括如下步骤:
步骤1,在四维光场数据中选定参考视点,计算参考视点处图像边缘成分的空间深度;
步骤2,对参考视点处图像进行区域分割运算,按照颜色或亮度均一性将其分为若干区
域;
步骤3,对分割后的各区域边缘的空间深度作修正,根据修正后的空间深度对区域中心
部分的空间深度作插值运算。
2.如权利要求1所述的基于光场太阳城集团的空间深度提取方法,其特征在于,参考视点为
2K-1个视点,其中,K个视点位于一条直线上,另外K个视点位于另一条直线,两条直线交点
为参考视点,共构成2K-1个视点。
3.如权利要求1所述的基于光场太阳城集团的空间深度提取方法,其特征在于,步骤1的具体
步骤如下:
步骤1-1,获取光场太阳城集团,将四维光场太阳城集团分解为各视点的图像。对参考视点处图像做
梯度运算,从而提取出参考视点处图像边缘成分;
步骤1-2,结合与参考视点同一行和同一列的其他视点成像太阳城集团,计算出参考视点处图
像边缘成分的的空间深度特征线斜率;
步骤1-3,根据空间深度特征线斜率可以计算出参考视点处图像边缘成分的空间深度。
4.如权利要求3所述的基于光场太阳城集团的空间深度提取方法,其特征在于,在步骤1-2中,
对于梯度值大于噪声临界阈值的边缘位置,将其对应的原像素及相邻像素,按视点进行搜
索匹配;在X和Y两个视点方向上均能找到一组与之匹配的位置,从而构成空间深度太阳城集团的
特征线;
噪声临界阈值选取0≤T≤0.25Gmax,Gmax为最大灰度。
5.如权利要求3所述的基于光场太阳城集团的空间深度提取方法,其特征在于,在步骤1-2中,
空间深度特征线的计算方法,先采用禁忌搜索缩小特征线上点的搜索范围,在搜索范围内
找出与已确定的特征线上临近点差异最小的点,将其加入特征线点列,然后通过新的点列
集合进一步确定下一步的搜索范围。
6.如权利要求1所述的基于光场太阳城集团的空间深度提取方法,其特征在于,在步骤2中,进
行区域分割运算的区域之间的边界为步骤1中获得的参考视点处图像边缘成分。
7.如权利要求1所述一种基于光场太阳城集团的空间深度提取方法,其特征在于,在步骤2中,
区域分割运算采用的是四叉树分解和聚合的方式;四叉树分离和聚合的判别标准为区域内
像素的一致性是否超过临界值,对于灰度图像,一致性为像素灰度的最大差值;对于彩色图
像,一致性为颜色与平均颜色的最大差值。
8.如权利要求1所述的基于光场太阳城集团的空间深度提取方法,其特征在于,在步骤3中,根
据步骤1获得的参考视点处图像边缘成分的空间深度和步骤2获得的区域分割情况,对各区
域边界的空间深度作修正;
根据修正后的区域边界的空间深度,对非边界区域做空间深度插值运算,获得整个区
域的空间深度。
9.如权利要求1所述的基于光场太阳城集团的空间深度提取方法,其特征在于,步骤3的具体
步骤如下:
步骤3-1,获得的每一个区域,遍历其边界,按顺序并记录边界像素的位置,并根据步骤
1的结果按顺序记录其对应的空间深度值;
步骤3-2,对按顺序排列的区域边界的空间深度值做差分运算;
步骤3-3,对差分运算的结果做积分运算。
10.如权利要求9所述的基于光场太阳城集团的空间深度提取方法,其特征在于,在步骤3-3
中,做积分运算时,将超过阈值的差分量按阈值计算。

说明书

一种基于光场太阳城集团的空间深度提取方法

技术领域

本发明涉及计算机视觉和计算摄影学领域,尤其涉及一种基于光场太阳城集团的空间深
度提取方法。

背景技术

光场成像的太阳城集团获取属于计算摄影学领域,空间深度提取属于计算机视觉领域。
记录光场的设想最早由Gabriel Lippmann在1908年发表的拉丁文论文中提出。1996年,
M.Levoy和P.Hanrahan提出了光场渲染理论,并将全光函数缩减到四维,并称之为光场函
数。光场太阳城集团的采集方式有两种,一种为传统相机加微透镜阵列的形式,另一种为将若干个
相机排列成阵列的形式。两种方法殊途同归,均能获得光场太阳城集团的采样。与传统成像方式相
比,光场成像的方法不仅记录了传感器像素的强度,而且记录了入射光线的方向。因而光场
成像可以获取成像物体的水平方向和垂直方向的视差图像,因而含有物体空间深度太阳城集团。

现有的在光场太阳城集团中提取空间深度的方法大都需要通过优化空间深度描述函数
实现,而且由于需要循环优化,其运算太阳城集团难以准确估计,且太阳城集团较长。通过优化空间深度
描述函数来实现空间深度提取的方法,需要选择强壮有效的描述函数,其运算结果的准确
性与描述函数和实际场景的匹配度有很大关联,很难找到对所有场景均适应的描述优化函
数。

公开号为104899870A的专利文献公开了一种基于光场数据分布的深度估计方法。
该方法参考光场数据特性,从改变输入光场图像像素分布所得的一系列重聚焦光场图像中
提取与焦距相关张量预估场景深度。进一步,还利用该张量随深度的变化趋势与场景中心
子孔径纹理图的梯度太阳城集团建立多元可信度模型衡量各点初始深度质量,优化初步估计结
果。该方法计算量大,运算太阳城集团长。

发明内容

为了解决基于函数优化的空间深度提取方法所面临的太阳城集团复杂度和计算准确性
的问题,本发明结合光场太阳城集团,提出一种空间深度提取方法,通过一次计算提取整幅图像的
空间深度,无需迭代计算。

一种基于光场太阳城集团的空间深度提取方法,包括如下步骤:

步骤1,在四维光场数据中选定参考视点,计算参考视点处图像边缘成分的空间深
度;

步骤2,对参考视点处图像进行区域分割运算,按照颜色或亮度均一性将其分为若
干区域;

步骤3,对分割后的各区域边缘的空间深度作修正,根据修正后的空间深度对区域
中心部分的空间深度作插值运算。

在步骤1中,参考视点可以是中心视点,也可以是边缘视点。为获取参考视点处图
像边缘成分,只需结合与参考视点处于同一直线的两组其它视点的图像太阳城集团,即可获得参
考视点处图像边缘成分的空间深度。

空间深度是指视场中某一像素点所对应的物体上的一点到光场记录设备的距离。

区别于传统方法,本发明不需K×K个视点构成阵列,而是仅需2K-1个视点。其中,K
个视点位于一条直线上,另外K个视点位于另一条直线,两条直线交点即为参考视点,故共
需要2K-1个视点。并且,此处对处于两条线上的视点组,其直线夹角无特殊要求。

步骤1的具体步骤如下:

步骤1-1,获取光场太阳城集团,将四维光场太阳城集团分解为各视点的图像。对参考视点处图
像做梯度运算,从而提取出参考视点处图像边缘成分;

步骤1-2,结合与参考视点同一行和同一列的其他视点成像太阳城集团,计算出参考视点
处图像边缘成分的的空间深度特征线斜率;

步骤1-3,根据空间深度特征线斜率可以计算出参考视点处图像边缘成分的空间
深度。

在步骤1-1中,本发明方法对光场太阳城集团的采集方式无要求,凡满足四维光场特征形
式的数据均有效。

在步骤1-2中,对于梯度值大于噪声临界阈值的边缘位置,将其对应的原像素及相
邻像素,按视点进行搜索匹配;在X和Y两个视点方向上均能找到一组与之匹配的位置,从而
构成空间深度太阳城集团的特征线;空间深度特征线的计算方法,先采用禁忌搜索缩小特征线上
点的搜索范围,在搜索范围内找出与已确定的特征线上临近点差异最小的点,将其加入特
征线点列,然后通过新的点列集合进一步确定下一步的搜索范围。

噪声临界阈值可以人为设定,一般选取0≤T≤0.25Gmax,Gmax为最大灰度。

禁忌搜索是指根据上一视点位置搜索到的结果,缩小此次搜索范围,从而可以大
幅提高运算效率。

在步骤2中,进行区域分割运算的区域之间的边界即为步骤1中获得的参考视点处
图像边缘成分。区域分割运算采用的是四叉树分解和聚合的方式,可以有效提高运算速度
和程序的强壮性。

四叉树分离和聚合的判别标准为区域内像素的一致性是否超过临界值,对于灰度
图像,一致性即为像素灰度的最大差值;对于彩色图像,一致性即为颜色与平均颜色的最大
差值。

在步骤3中,根据步骤1获得的参考视点处图像边缘成分的空间深度和步骤2获得
的区域分割情况,对各区域边界的空间深度作修正,以调整因物体间的空间遮挡关系而产
生的边界空间深度错误。然后根据修正后的区域边界的空间深度,对非边界区域做空间深
度插值运算,以获得整个区域的空间深度。

步骤3的具体步骤如下:

步骤3-1,获得的每一个区域,遍历其边界,按顺序并记录边界像素的位置,并根据
步骤1的结果按顺序记录其对应的空间深度值。

步骤3-2,对按顺序排列的区域边界的空间深度值做差分运算,

步骤3-3,对差分运算的结果做积分运算。

步骤3-3中做积分运算时,将超过阈值的差分量按阈值计算,从而通过步骤3的运
算消除区域边界的空间深度的剧烈变化。

本发明不特定依赖于如背景技术中所述的两种光场采样的某一种,本发明通过禁
忌搜索、区域分割、深度插值等方法,避免了空间深度描述函数优化方法所面对的描述函数
选择困难和运算太阳城集团不确定等问题,实现了对空间深度提取的快速、准确运算。

附图说明

图1是基于光场太阳城集团的空间深度提取方法的流程示意图;

图2是光场太阳城集团的示意图,其中,图2a图2b分别是不同视点接收同一场景的光线示
意图;

图3是参考视点的选取示意图,其中,图3a是两条直线正交平分时参考视点的选取
示意图,图3b是两条直线仅正交时参考视点的选取示意图,图3c是两条直线任意相交时参
考视点的选取示意图;

图4是禁忌搜索示意图。

具体实施方式

现结合具体实施例和附图对本发明方法进行详细说明。

如图1所示,基于光场太阳城集团进行空间深度提取的步骤如下:

(1)参考视点处图像边缘成分的空间深度计算

选定四维光场数据的参考视点。光场成像记录的太阳城集团为四维数据,其数据记录原
理如图2所示,对于一幅图像I(x,y),在图像的不同位置(x,y)经不同的视点(u,v)记录,可
得四维光场数据R(u,v,x,y),R(u,v,x,y)为(u,v,x,y)点的光线亮度。

本发明不限于光场太阳城集团的获取方式,凡获得的可用如图2表示的光场数据,本发明
方法均可实现对其提取空间深度。

假设umin≤u≤umax,vmin≤v≤vmax,xmin≤x≤xmax,ymin≤y≤ymax,选取视点(u,v)定义
范围内的一个视点(u0,v0)为参考视点。本发明不需K×K个视点构成阵列,而是仅需2K-1个
视点,其中,K个视点位于一条直线上,另外K个视点位于另一条直线,两条直线交点即为参
考视点,因此,本发明仅需设置2K-1个视点,参考视点的选取要求如图3所示的三种情况。

对参考视点处图像做梯度运算G(u0,v0,x,y),

<mrow> <mi>G</mi> <mrow> <mo>(</mo> <msub> <mi>u</mi> <mn>0</mn> </msub> <mo>,</mo> <msub> <mi>v</mi> <mn>0</mn> </msub> <mo>,</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>=</mo> <munder> <mo>&Sigma;</mo> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>n</mi> </msub> <mo>,</mo> <msub> <mi>y</mi> <mi>n</mi> </msub> <mo>)</mo> <mo>&Element;</mo> <mi>N</mi> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> </munder> <mo>&lsqb;</mo> <mi>R</mi> <mrow> <mo>(</mo> <msub> <mi>u</mi> <mn>0</mn> </msub> <mo>,</mo> <msub> <mi>v</mi> <mn>0</mn> </msub> <mo>,</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>-</mo> <mi>R</mi> <mrow> <mo>(</mo> <msub> <mi>u</mi> <mn>0</mn> </msub> <mo>,</mo> <msub> <mi>v</mi> <mn>0</mn> </msub> <mo>,</mo> <msub> <mi>x</mi> <mi>n</mi> </msub> <mo>,</mo> <msub> <mi>y</mi> <mi>n</mi> </msub> <mo>)</mo> </mrow> <mo>&rsqb;</mo> <mo>/</mo> <mn>4</mn> <mo>,</mo> </mrow>

其中N(x,y)为(xn,yn)的四邻域像素,且

N(x,y)={(xn,yn)||xn-x|-|yn-y|=1},

边缘区域E(u0,v0)的定义为

E(u0,v0)={(u0,v0,x,y)||G(u0,v0,x,y)|>T},

其中T为噪声临界阈值,其值可以人为设定,一般选取0≤T≤0.25Gmax,Gmax为最大
灰度。

在边缘区域,对于确定的(v0,ye),(u,x)可组成一组特征线,(u,x)过点(u0,xe);对
于确定的(u0,xe),(v,y)可组成一组特征线,(v,y)过点(v0,ye)。

以上,边缘区域的一点(u0,v0,xe,ye)∈E(u0,v0)。

记边缘区域的一点(u0,v0,xe,ye)的两组特征线集合分别为


通过迭代的方式可求得特征线和

其中,

<mrow> <mi>x</mi> <mrow> <mo>(</mo> <mi>u</mi> <mo>)</mo> </mrow> <msub> <mo>|</mo> <mrow> <munder> <munder> <mrow> <mi>u</mi> <mo>,</mo> <mi>u</mi> <mo>-</mo> <mn>1</mn> </mrow> <mrow> <mi>v</mi> <mo>=</mo> <msub> <mi>v</mi> <mn>0</mn> </msub> </mrow> </munder> <mrow> <mi>y</mi> <mo>=</mo> <msub> <mi>y</mi> <mi>e</mi> </msub> </mrow> </munder> <mo>&Element;</mo> <mrow> <mo>(</mo> <msub> <mi>u</mi> <mrow> <mi>m</mi> <mi>i</mi> <mi>n</mi> </mrow> </msub> <mo>,</mo> <msub> <mi>u</mi> <mrow> <mi>m</mi> <mi>a</mi> <mi>x</mi> </mrow> </msub> <mo>)</mo> </mrow> </mrow> </msub> <mo>=</mo> <munder> <mi>argmin</mi> <mrow> <mi>x</mi> <mrow> <mo>(</mo> <mi>u</mi> <mo>)</mo> </mrow> </mrow> </munder> <mo>&lsqb;</mo> <mn>2</mn> <mi>R</mi> <mrow> <mo>(</mo> <mi>u</mi> <mo>,</mo> <msub> <mi>v</mi> <mn>0</mn> </msub> <mo>,</mo> <mi>x</mi> <mo>(</mo> <mi>x</mi> <mo>)</mo> <mo>,</mo> <msub> <mi>y</mi> <mi>e</mi> </msub> <mo>)</mo> </mrow> <mo>-</mo> <mi>R</mi> <mrow> <mo>(</mo> <mi>u</mi> <mo>-</mo> <mn>1</mn> <mo>,</mo> <msub> <mi>v</mi> <mn>0</mn> </msub> <mo>,</mo> <mi>x</mi> <mo>(</mo> <mrow> <mi>u</mi> <mo>-</mo> <mn>1</mn> </mrow> <mo>)</mo> <mo>,</mo> <msub> <mi>y</mi> <mi>e</mi> </msub> <mo>)</mo> </mrow> <mo>-</mo> <mi>R</mi> <mrow> <mo>(</mo> <msub> <mi>u</mi> <mn>0</mn> </msub> <mo>,</mo> <msub> <mi>v</mi> <mn>0</mn> </msub> <mo>,</mo> <msub> <mi>x</mi> <mi>e</mi> </msub> <mo>,</mo> <msub> <mi>y</mi> <mi>e</mi> </msub> <mo>)</mo> </mrow> <mo>&rsqb;</mo> <mo>,</mo> </mrow>

<mrow> <mi>y</mi> <mrow> <mo>(</mo> <mi>v</mi> <mo>)</mo> </mrow> <msub> <mo>|</mo> <mrow> <munder> <munder> <mrow> <mi>v</mi> <mo>,</mo> <mi>v</mi> <mo>-</mo> <mn>1</mn> </mrow> <mrow> <mi>u</mi> <mo>=</mo> <msub> <mi>u</mi> <mn>0</mn> </msub> </mrow> </munder> <mrow> <mi>x</mi> <mo>=</mo> <msub> <mi>x</mi> <mi>e</mi> </msub> </mrow> </munder> <mo>&Element;</mo> <mrow> <mo>(</mo> <msub> <mi>v</mi> <mrow> <mi>m</mi> <mi>i</mi> <mi>n</mi> </mrow> </msub> <mo>,</mo> <msub> <mi>v</mi> <mrow> <mi>m</mi> <mi>a</mi> <mi>x</mi> </mrow> </msub> <mo>)</mo> </mrow> </mrow> </msub> <mo>=</mo> <munder> <mi>argmin</mi> <mrow> <mi>y</mi> <mrow> <mo>(</mo> <mi>u</mi> <mo>)</mo> </mrow> </mrow> </munder> <mo>&lsqb;</mo> <mn>2</mn> <mi>R</mi> <mrow> <mo>(</mo> <msub> <mi>u</mi> <mn>0</mn> </msub> <mo>,</mo> <mi>v</mi> <mo>,</mo> <msub> <mi>x</mi> <mi>e</mi> </msub> <mo>,</mo> <mi>y</mi> <mo>(</mo> <mi>v</mi> <mo>)</mo> <mo>)</mo> </mrow> <mo>-</mo> <mi>R</mi> <mrow> <mo>(</mo> <msub> <mi>u</mi> <mn>0</mn> </msub> <mo>,</mo> <mi>v</mi> <mo>-</mo> <mn>1</mn> <mo>,</mo> <msub> <mi>x</mi> <mi>e</mi> </msub> <mo>,</mo> <mi>y</mi> <mo>(</mo> <mrow> <mi>v</mi> <mo>-</mo> <mn>1</mn> </mrow> <mo>)</mo> <mo>)</mo> </mrow> <mo>-</mo> <mi>R</mi> <mrow> <mo>(</mo> <msub> <mi>u</mi> <mn>0</mn> </msub> <mo>,</mo> <msub> <mi>v</mi> <mn>0</mn> </msub> <mo>,</mo> <msub> <mi>x</mi> <mi>e</mi> </msub> <mo>,</mo> <msub> <mi>y</mi> <mi>e</mi> </msub> <mo>)</mo> </mrow> <mo>&rsqb;</mo> <mo>.</mo> </mrow>

如图3所示,禁忌搜索过程迭代的过程无需遍历全局,在每确定特征线上一点后,
都会在下一个迭代位置锁定一个含有3至5个像素的搜索范围,因而可以大幅压缩特征线的
计算太阳城集团。

确定特征线后,可以确定特征线的斜率Sux(u0,v0,xe,ye)和Svy(u0,v0,xe,ye)。

<mrow> <msub> <mi>S</mi> <mrow> <mi>u</mi> <mi>x</mi> </mrow> </msub> <mrow> <mo>(</mo> <msub> <mi>u</mi> <mn>0</mn> </msub> <mo>,</mo> <msub> <mi>v</mi> <mn>0</mn> </msub> <mo>,</mo> <msub> <mi>x</mi> <mi>e</mi> </msub> <mo>,</mo> <msub> <mi>y</mi> <mi>e</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mrow> <mi>&Sigma;</mi> <mrow> <mo>(</mo> <mi>u</mi> <mo>-</mo> <mover> <mi>u</mi> <mo>&OverBar;</mo> </mover> <mo>)</mo> </mrow> <mrow> <mo>(</mo> <mi>x</mi> <mo>-</mo> <mover> <mi>x</mi> <mo>&OverBar;</mo> </mover> <mo>)</mo> </mrow> </mrow> <mrow> <mi>&Sigma;</mi> <msup> <mrow> <mo>(</mo> <mi>u</mi> <mo>-</mo> <mover> <mi>u</mi> <mo>&OverBar;</mo> </mover> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> </mfrac> <mo>,</mo> <mo>&ForAll;</mo> <mrow> <mo>(</mo> <mi>u</mi> <mo>,</mo> <mi>v</mi> <mo>,</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>&Element;</mo> <msub> <mi>R</mi> <mrow> <mi>u</mi> <mi>x</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>u</mi> <mo>,</mo> <msub> <mi>v</mi> <mn>0</mn> </msub> <mo>,</mo> <mi>x</mi> <mo>,</mo> <msub> <mi>y</mi> <mi>e</mi> </msub> <mo>)</mo> </mrow> <mo>,</mo> </mrow>

<mrow> <msub> <mi>S</mi> <mrow> <mi>v</mi> <mi>y</mi> </mrow> </msub> <mrow> <mo>(</mo> <msub> <mi>u</mi> <mn>0</mn> </msub> <mo>,</mo> <msub> <mi>v</mi> <mn>0</mn> </msub> <mo>,</mo> <msub> <mi>x</mi> <mi>e</mi> </msub> <mo>,</mo> <msub> <mi>y</mi> <mi>e</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mrow> <mi>&Sigma;</mi> <mrow> <mo>(</mo> <mi>v</mi> <mo>-</mo> <mover> <mi>v</mi> <mo>&OverBar;</mo> </mover> <mo>)</mo> </mrow> <mrow> <mo>(</mo> <mi>y</mi> <mo>-</mo> <mover> <mi>y</mi> <mo>&OverBar;</mo> </mover> <mo>)</mo> </mrow> </mrow> <mrow> <mi>&Sigma;</mi> <msup> <mrow> <mo>(</mo> <mi>v</mi> <mo>-</mo> <mover> <mi>v</mi> <mo>&OverBar;</mo> </mover> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> </mfrac> <mo>,</mo> <mo>&ForAll;</mo> <mrow> <mo>(</mo> <mi>u</mi> <mo>,</mo> <mi>v</mi> <mo>,</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>&Element;</mo> <msub> <mi>R</mi> <mrow> <mi>v</mi> <mi>y</mi> </mrow> </msub> <mrow> <mo>(</mo> <msub> <mi>u</mi> <mn>0</mn> </msub> <mo>,</mo> <mi>v</mi> <mo>,</mo> <msub> <mi>x</mi> <mi>e</mi> </msub> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>.</mo> </mrow>

最终可确定边缘像素空间深度D(μ0,v0,xe,ye)为

<mrow> <mi>D</mi> <mrow> <mo>(</mo> <msub> <mi>u</mi> <mn>0</mn> </msub> <mo>,</mo> <msub> <mi>v</mi> <mn>0</mn> </msub> <mo>,</mo> <msub> <mi>x</mi> <mi>e</mi> </msub> <mo>,</mo> <msub> <mi>y</mi> <mi>e</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <msub> <mi>D</mi> <mn>0</mn> </msub> <mrow> <mn>1</mn> <mo>-</mo> <mn>0.5</mn> <mo>&lsqb;</mo> <msub> <mi>S</mi> <mrow> <mi>u</mi> <mi>x</mi> </mrow> </msub> <mrow> <mo>(</mo> <msub> <mi>u</mi> <mn>0</mn> </msub> <mo>,</mo> <msub> <mi>v</mi> <mn>0</mn> </msub> <mo>,</mo> <msub> <mi>x</mi> <mi>e</mi> </msub> <mo>,</mo> <msub> <mi>y</mi> <mi>e</mi> </msub> <mo>)</mo> </mrow> <mo>+</mo> <msub> <mi>S</mi> <mrow> <mi>v</mi> <mi>y</mi> </mrow> </msub> <mrow> <mo>(</mo> <msub> <mi>u</mi> <mn>0</mn> </msub> <mo>,</mo> <msub> <mi>v</mi> <mn>0</mn> </msub> <mo>,</mo> <msub> <mi>x</mi> <mi>e</mi> </msub> <mo>,</mo> <msub> <mi>y</mi> <mi>e</mi> </msub> <mo>)</mo> </mrow> <mo>&rsqb;</mo> </mrow> </mfrac> <mo>,</mo> </mrow>

其中D0为归一化空间深度。

(2)对参考视点处图像进行区域分割运算

本发明采用四叉树分解和聚合的方式实施参考视点处图像的区域分割。首先将参
考视点处图像进行四叉树分解,要求分解后的区域内像素阈值小于T,此处阈值与第一步阈
值相同。

设Ri为当前矩形区域,则

<mrow> <mi>P</mi> <mrow> <mo>(</mo> <msub> <mi>R</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mn>1</mn> <mo>,</mo> <mi>m</mi> <mi>a</mi> <mi>x</mi> <mo>(</mo> <msub> <mi>R</mi> <mi>i</mi> </msub> <mo>)</mo> <mo>-</mo> <mi>m</mi> <mi>i</mi> <mi>n</mi> <mo>(</mo> <msub> <mi>R</mi> <mi>i</mi> </msub> <mo>)</mo> <mo>&le;</mo> <mi>T</mi> </mtd> </mtr> <mtr> <mtd> <mn>0</mn> <mo>,</mo> <mi>m</mi> <mi>a</mi> <mi>x</mi> <mo>(</mo> <msub> <mi>R</mi> <mi>i</mi> </msub> <mo>)</mo> <mo>-</mo> <mi>m</mi> <mi>i</mi> <mi>n</mi> <mo>(</mo> <msub> <mi>R</mi> <mi>i</mi> </msub> <mo>)</mo> <mo>&gt;</mo> <mi>T</mi> </mtd> </mtr> </mtable> </mfenced> <mo>,</mo> </mrow>

P(Ri)为判断区域Ri是否进行分割的一个逻辑,如果值为1则不分割,如果值为0则
分割;max(Ri)为当前矩形区域的最大值,min(Ri)为当前矩形区域的最小值。

若P(Ri)=0,则将Ri分为互不相交的4个区域,使之满足


重复以上步骤直至每一个子区域均不可分割。然后将分解后的任意相邻的区域尝
试聚合,若满足max(Ri∪Rj)-min(Ri∪Rj)≤T,则将之合并。

(3)分割区域中心部分像素的深度填充

(3-1)先对各分割区域的边缘成分空间深度做修正。

对合并后的任一分割区域Ri,按逆时针方向检索其边缘深度,获得边缘位置数列Ci
和边缘深度数列Di,其中i=1,2,......,n。求取数列Di的差分di,

<mrow> <msub> <mi>d</mi> <mi>i</mi> </msub> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <msub> <mi>D</mi> <mrow> <mi>i</mi> <mo>+</mo> <mn>1</mn> </mrow> </msub> <mo>-</mo> <msub> <mi>D</mi> <mi>i</mi> </msub> <mo>,</mo> <mi>i</mi> <mo>&NotEqual;</mo> <mi>n</mi> </mtd> </mtr> <mtr> <mtd> <msub> <mi>D</mi> <mn>0</mn> </msub> <mo>-</mo> <msub> <mi>D</mi> <mi>i</mi> </msub> <mo>,</mo> <mi>i</mi> <mo>=</mo> <mi>n</mi> </mtd> </mtr> </mtable> </mfenced> <mo>,</mo> </mrow>

修正后的差分di'为

<mrow> <msup> <msub> <mi>d</mi> <mi>i</mi> </msub> <mo>&prime;</mo> </msup> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <msub> <mi>d</mi> <mi>i</mi> </msub> <mo>,</mo> <msub> <mi>d</mi> <mi>i</mi> </msub> <mo>&lt;</mo> <mi>&Delta;</mi> <msub> <mi>D</mi> <mrow> <mi>m</mi> <mi>a</mi> <mi>x</mi> </mrow> </msub> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>&Delta;D</mi> <mrow> <mi>m</mi> <mi>a</mi> <mi>x</mi> </mrow> </msub> <mo>,</mo> <msub> <mi>d</mi> <mi>i</mi> </msub> <mo>&GreaterEqual;</mo> <msub> <mi>&Delta;D</mi> <mrow> <mi>m</mi> <mi>a</mi> <mi>x</mi> </mrow> </msub> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>,</mo> </mrow>

其中,ΔDmax为空间深度变化阈值。设Di最小值为则修正后的空间深度
Di'为

<mrow> <msup> <msub> <mi>D</mi> <mi>i</mi> </msub> <mo>&prime;</mo> </msup> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <msub> <mi>D</mi> <mrow> <mi>i</mi> <mo>-</mo> <mn>1</mn> </mrow> </msub> <mo>+</mo> <msup> <msub> <mi>d</mi> <mi>i</mi> </msub> <mo>&prime;</mo> </msup> <mo>,</mo> <mi>i</mi> <mo>&gt;</mo> <msub> <mi>i</mi> <mn>0</mn> </msub> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>D</mi> <mrow> <mi>m</mi> <mi>i</mi> <mi>n</mi> </mrow> </msub> <mo>,</mo> <mi>i</mi> <mo>=</mo> <msub> <mi>i</mi> <mn>0</mn> </msub> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>D</mi> <mrow> <mi>i</mi> <mo>+</mo> <mn>1</mn> </mrow> </msub> <mo>-</mo> <msup> <msub> <mi>d</mi> <mi>i</mi> </msub> <mo>&prime;</mo> </msup> <mo>,</mo> <mi>i</mi> <mo>&lt;</mo> <msub> <mi>i</mi> <mn>0</mn> </msub> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>.</mo> </mrow>

(3-2)根据修正后的分割区域边缘的空间深度,对分割区域非边缘部分的空间深
度作填充。

首先沿x方向作填充。对于分割区域中任意一点(x,y),寻找相同y坐标的左边缘
(xleft,y)和右边缘(xright,y),根据修正后的分割区域边缘的空间深度对(x,y)空间深度进
行线性插值。插值后的x方向的空间深度Dx(u0,v0,x,y)为

<mrow> <msub> <mi>D</mi> <mi>x</mi> </msub> <mrow> <mo>(</mo> <msub> <mi>u</mi> <mn>0</mn> </msub> <mo>,</mo> <msub> <mi>v</mi> <mn>0</mn> </msub> <mo>,</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mrow> <mi>x</mi> <mo>-</mo> <msub> <mi>x</mi> <mrow> <mi>l</mi> <mi>e</mi> <mi>f</mi> <mi>t</mi> </mrow> </msub> </mrow> <mrow> <msub> <mi>x</mi> <mrow> <mi>r</mi> <mi>i</mi> <mi>g</mi> <mi>h</mi> <mi>t</mi> </mrow> </msub> <mo>-</mo> <msub> <mi>x</mi> <mrow> <mi>l</mi> <mi>e</mi> <mi>f</mi> <mi>t</mi> </mrow> </msub> </mrow> </mfrac> <msup> <mi>D</mi> <mo>&prime;</mo> </msup> <mrow> <mo>(</mo> <msub> <mi>u</mi> <mn>0</mn> </msub> <mo>,</mo> <msub> <mi>v</mi> <mn>0</mn> </msub> <mo>,</mo> <msub> <mi>x</mi> <mrow> <mi>r</mi> <mi>i</mi> <mi>g</mi> <mi>h</mi> <mi>t</mi> </mrow> </msub> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>+</mo> <mfrac> <mrow> <msub> <mi>x</mi> <mrow> <mi>r</mi> <mi>i</mi> <mi>g</mi> <mi>h</mi> <mi>t</mi> </mrow> </msub> <mo>-</mo> <mi>x</mi> </mrow> <mrow> <msub> <mi>x</mi> <mrow> <mi>r</mi> <mi>i</mi> <mi>g</mi> <mi>h</mi> <mi>t</mi> </mrow> </msub> <mo>-</mo> <msub> <mi>x</mi> <mrow> <mi>l</mi> <mi>e</mi> <mi>f</mi> <mi>t</mi> </mrow> </msub> </mrow> </mfrac> <msup> <mi>D</mi> <mo>&prime;</mo> </msup> <mrow> <mo>(</mo> <msub> <mi>u</mi> <mn>0</mn> </msub> <mo>,</mo> <msub> <mi>v</mi> <mn>0</mn> </msub> <mo>,</mo> <msub> <mi>x</mi> <mrow> <mi>l</mi> <mi>e</mi> <mi>f</mi> <mi>t</mi> </mrow> </msub> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>,</mo> </mrow>

其中D'(u0,v0,xright,y)为像素(u0,v0,x,y)对应的区域右边界修正后的空间深度,
D'(u0,v0,xleft,y)为像素(u0,v0,x,y)对应的区域左边界修正后的空间深度。

对于区域中同一行的数据,仅需检索一次左右边缘,因而可以大幅压缩计算的时
间复杂度。

相同地,沿y方向的插值后得到的y方向的空间深度Dy(u0,v0,x,y)为

<mrow> <msub> <mi>D</mi> <mi>y</mi> </msub> <mrow> <mo>(</mo> <msub> <mi>u</mi> <mn>0</mn> </msub> <mo>,</mo> <msub> <mi>v</mi> <mn>0</mn> </msub> <mo>,</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mrow> <mi>y</mi> <mo>-</mo> <msub> <mi>y</mi> <mrow> <mi>d</mi> <mi>o</mi> <mi>w</mi> <mi>n</mi> </mrow> </msub> </mrow> <mrow> <msub> <mi>y</mi> <mrow> <mi>u</mi> <mi>p</mi> </mrow> </msub> <mo>-</mo> <msub> <mi>y</mi> <mrow> <mi>d</mi> <mi>o</mi> <mi>w</mi> <mi>m</mi> </mrow> </msub> </mrow> </mfrac> <mi>D</mi> <mrow> <mo>(</mo> <msub> <mi>u</mi> <mn>0</mn> </msub> <mo>,</mo> <msub> <mi>v</mi> <mn>0</mn> </msub> <mo>,</mo> <mi>x</mi> <mo>,</mo> <msub> <mi>y</mi> <mrow> <mi>u</mi> <mi>p</mi> </mrow> </msub> <mo>)</mo> </mrow> <mo>+</mo> <mfrac> <mrow> <msub> <mi>y</mi> <mrow> <mi>u</mi> <mi>p</mi> </mrow> </msub> <mo>-</mo> <mi>y</mi> </mrow> <mrow> <msub> <mi>y</mi> <mrow> <mi>u</mi> <mi>p</mi> </mrow> </msub> <mo>-</mo> <msub> <mi>y</mi> <mrow> <mi>d</mi> <mi>o</mi> <mi>w</mi> <mi>m</mi> </mrow> </msub> </mrow> </mfrac> <mi>D</mi> <mrow> <mo>(</mo> <msub> <mi>u</mi> <mn>0</mn> </msub> <mo>,</mo> <msub> <mi>v</mi> <mn>0</mn> </msub> <mo>,</mo> <mi>x</mi> <mo>,</mo> <msub> <mi>y</mi> <mrow> <mi>d</mi> <mi>o</mi> <mi>w</mi> <mi>n</mi> </mrow> </msub> <mo>)</mo> </mrow> <mo>,</mo> </mrow>

其中D(u0,v0,x,yup)为像素(u0,v0,x,y)对应的区域上边界修正后的空间深度,D
(u0,v0,x,ydown)为像素(u0,v0,x,y)对应的区域下边界修正后的空间深度。

最终的插值结果为Dx(u0,v0,x,y)和Dy(u0,v0,x,y)的平均值D(u0,v0,x,y),即

<mrow> <mi>D</mi> <mrow> <mo>(</mo> <msub> <mi>u</mi> <mn>0</mn> </msub> <mo>,</mo> <msub> <mi>v</mi> <mn>0</mn> </msub> <mo>,</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mn>1</mn> <mn>2</mn> </mfrac> <mo>&lsqb;</mo> <msub> <mi>D</mi> <mi>x</mi> </msub> <mrow> <mo>(</mo> <msub> <mi>u</mi> <mn>0</mn> </msub> <mo>,</mo> <msub> <mi>v</mi> <mn>0</mn> </msub> <mo>,</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>+</mo> <msub> <mi>D</mi> <mi>y</mi> </msub> <mrow> <mo>(</mo> <msub> <mi>u</mi> <mn>0</mn> </msub> <mo>,</mo> <msub> <mi>v</mi> <mn>0</mn> </msub> <mo>,</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>&rsqb;</mo> <mo>.</mo> </mrow>

本发明实施例适应性广泛,本发明不依赖于特定类型的光场采集装置,凡满足图1
描述的光场数据,均可以通过本发明实现对空间深度的提取。

本发明的优点如下:

(1)本发明无需设定中心视点,现有技术多依赖于中心视点来提取空间深度。区别
于现有技术,采用针对于参考视点的方法来提取空间深度,参考视点可以位于中心,也可以
位于一侧。

(2)本发明运算太阳城集团短,假设参考视点处图像的数据量为N,总视点数为常数,则本
发明在说明中所述步骤1、2、3的太阳城集团复杂度分别为N、NlogN、N,总的太阳城集团复杂度为T(N)=O
(2N+NlogN)=O(NlogN)。因而本发明的运算太阳城集团很短,具备实际实现的操作性。

以上所述的具体实施方式对本发明的技术方案和有益效果进行了详细说明,应理
解的是以上所述仅为本发明的最优选实施例,并不用于限制本发明,凡在本发明的原则范
围内所做的任何修改、补充和等同替换等,均应包含在本发明的保护范围之内。

关 键 词:
一种 基于 太阳城集团 空间 深度 提取 方法
  专利查询网所有资源均是用户自行上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作他用。
太阳城集团本文
本文标题:一种基于光场太阳城集团的空间深度提取方法.pdf
链接地址:http://zh228.com/p-6100825.html
太阳城集团我们 - 网站声明 - 网站地图 - 资源地图 - 友情链接 - 网站客服客服 - 联系我们

copyright@ 2017-2018 zhuanlichaxun.net网站版权所有
经营许可证编号:粤ICP备17046363号-1 
 


收起
展开
葡京赌场|welcome document.write ('');