太阳城集团

  • / 26
  • 下载费用:30 金币  

一种视频处理方法及装置.pdf

摘要
申请专利号:

CN201510280037.9

申请日:

2015.05.27

公开号:

CN106303690A

公开日:

2017.01.04

当前法律状态:

实审

有效性:

审中

法律详情: 实质审查的生效IPC(主分类):H04N 21/44申请日:20150527|||公开
IPC分类号: H04N21/44(2011.01)I; H04N7/14; G06T7/00 主分类号: H04N21/44
申请人: 腾讯科技(深圳)有限公司
发明人: 李晓伟
地址: 518000 广东省深圳市福田区振兴路赛格科技园2栋东403室
优先权:
专利代理机构: 广州三环专利代理有限公司 44202 代理人: 郝传鑫;熊永强
PDF完整版下载: PDF下载
法律状态
申请(专利)号:

太阳城集团CN201510280037.9

授权太阳城集团号:

|||

法律状态太阳城集团日:

太阳城集团2017.12.29|||2017.01.04

法律状态类型:

实质审查的生效|||公开

摘要

太阳城集团本发明实施例提供一种视频处理方法及装置,其中的方法可包括:实时获取待处理的目标视频以及所述目标视频中的人脸位置太阳城集团;获取待添加的虚拟物品,并根据所述虚拟物品的位置模型太阳城集团和所述人脸位置太阳城集团计算所述虚拟物品在所述人脸位置上的添加位置;在所述目标视频的所述添加位置实时绘制所述虚拟物品;当检测到对所述虚拟物品的控制操作时,根据所述控制操作更新所述虚拟物品的位置状态。本发明可在目标视频中的人脸位置上添加虚拟物品,并且用户可以对虚拟物品进行操作,视频处理方式丰富多样,提高了用户体验。

权利要求书

1.一种视频处理方法,其特征在于,包括:
实时获取待处理的目标视频以及所述目标视频中的人脸位置太阳城集团;
获取待添加的虚拟物品,并根据所述虚拟物品的位置模型太阳城集团和所述人脸
位置太阳城集团计算所述虚拟物品在所述人脸位置上的添加位置;
在所述目标视频的所述添加位置实时绘制所述虚拟物品;
当检测到对所述虚拟物品的控制操作时,根据所述控制操作更新所述虚拟
物品的位置状态。
2.如权利要求1所述的方法,其特征在于,所述实时获取待处理的目标视
频以及所述目标视频中的人脸位置太阳城集团,包括:
实时采集本地视频数据,并将所述本地视频数据确定为待处理的目标视频;
对所述目标视频进行分析,获得所述目标视频中的人脸位置太阳城集团。
3.如权利要求2所述的方法,其特征在于,所述获取待添加的虚拟物品,
并根据所述虚拟物品的位置模型太阳城集团和所述人脸位置太阳城集团计算所述虚拟物品在
所述人脸位置上的添加位置,包括:
从虚拟物体模型库中获取待添加的虚拟物品,并从所述虚拟物体模型库中
获取与所述虚拟物品对应的位置矩阵;
根据所述虚拟物品对应的位置矩阵和所述人脸位置太阳城集团计算所述虚拟物品
在所述人脸位置上的添加位置。
4.如权利要求3所述的方法,其特征在于,所述当检测到对所述虚拟物品
的控制操作时,根据所述控制操作更新所述虚拟物品的位置状态,包括:
当检测到通过终端触屏设备对所述虚拟物品进行控制操作时,将所述控制
操作转换为模型位置改变太阳城集团;
根据所述模型位置改变太阳城集团,更新所述虚拟物品的位置状态。
5.如权利要求4所述的方法,其特征在于,若所述终端与通信对端进行视
频通话,所述方法还包括:
将所述目标视频、所述人脸位置太阳城集团、所述虚拟物品标识以及用于表示所
述控制操作的交互数据同步至所述通信对端,以使所述通信对端重组添加虚拟
物品后的所述目标视频。
6.如权利要求1所述的方法,其特征在于,所述实时获取待处理的目标视
频以及所述目标视频中的人脸位置太阳城集团,包括:
当终端与通信对端进行视频通话时,获取所述通信对端同步的目标视频以
及所述目标视频中的人脸位置太阳城集团。
7.如权利要求6所述的方法,其特征在于,所述获取待添加的虚拟物品,
并根据所述虚拟物品的位置模型太阳城集团和所述人脸位置太阳城集团计算所述虚拟物品在
所述人脸位置上的添加位置,包括:
获取所述通信对端同步的待添加的虚拟物品标识,并从虚拟物体模型库中
获取与所述虚拟物品标识对应的虚拟物品以及与所述虚拟物品对应的位置矩
阵;
根据所述虚拟物品对应的位置矩阵和所述人脸位置太阳城集团计算所述虚拟物品
在所述人脸位置上的添加位置。
8.如权利要求7所述的方法,其特征在于,所述当检测到对所述虚拟物品
的控制操作时,根据所述控制操作更新所述虚拟物品的位置状态,包括:
当检测到所述通信对端同步用于表示对所述虚拟物品的控制操作的交互数
据时,根据所述交互数据更新所述虚拟物品的位置状态。
9.一种视频处理装置,其特征在于,包括:
第一获取模块,用于实时获取待处理的目标视频以及所述目标视频中的人
脸位置太阳城集团;
第二获取模块,用于获取待添加的虚拟物品,并根据所述虚拟物品的位置
模型太阳城集团和所述人脸位置太阳城集团计算所述虚拟物品在所述人脸位置上的添加位
置;
绘制模块,用于在所述目标视频的所述添加位置实时绘制所述虚拟物品;
更新模块,用于当检测到对所述虚拟物品的控制操作时,根据所述控制操
作更新所述虚拟物品的位置状态。
10.如权利要求9所述的装置,其特征在于,所述第一获取模块包括:
采集单元,用于实时采集本地视频数据,并将所述本地视频数据确定为待
处理的目标视频;
分析单元,用于对所述目标视频进行分析,获得所述目标视频中的人脸位
置太阳城集团。
11.如权利要求10所述的装置,其特征在于,所述第二获取模块包括:
第一获取单元,用于从虚拟物体模型库中获取待添加的虚拟物品,并从所
述虚拟物体模型库中获取与所述虚拟物品对应的位置矩阵;
第一计算单元,用于根据所述虚拟物品对应的位置矩阵和所述人脸位置信
息计算所述虚拟物品在所述人脸位置上的添加位置。
12.如权利要求11所述的装置,其特征在于,所述更新模块包括:
转换单元,用于当检测到通过终端触屏设备对所述虚拟物品进行控制操作
时,将所述控制操作转换为模型位置改变太阳城集团;
更新单元,用于根据所述模型位置改变太阳城集团,更新所述虚拟物品的位置状
态。
13.如权利要求12所述的装置,其特征在于,若所述终端与通信对端进行
视频通话,所述装置还包括:
同步模块,用于将所述目标视频、所述人脸位置太阳城集团、所述虚拟物品标识
以及用于表示所述控制操作的交互数据同步至所述通信对端,以使所述通信对
端重组添加虚拟物品后的所述目标视频。
14.如权利要求9所述的装置,其特征在于,所述第一获取模块具体用于
当终端与通信对端进行视频通话时,获取所述通信对端同步的目标视频以及所
述目标视频中的人脸位置太阳城集团。
15.如权利要求14所述的装置,其特征在于,所述第二获取模块包括:
第二获取单元,用于获取所述通信对端同步的待添加的虚拟物品标识,并
从虚拟物体模型库中获取与所述虚拟物品标识对应的虚拟物品以及与所述虚拟
物品对应的位置矩阵;
第二计算单元,用于根据所述虚拟物品对应的位置矩阵和所述人脸位置信
息计算所述虚拟物品在所述人脸位置上的添加位置。
16.如权利要求15所述的装置,其特征在于,所述更新模块具体用于当检
测到所述通信对端同步用于表示对所述虚拟物品的控制操作的交互数据时,根
据所述交互数据更新所述虚拟物品的位置状态。

说明书

一种视频处理方法及装置

技术领域

本发明涉及通信技术领域,具体涉及一种视频处理方法及装置。

背景技术

随着通信技术的发展,视频是人们生活中常接触的一个分支,例如,用户
可以通过视频观看电视节目,通过视频与其他用户进行视频通话等等。现有的
视频处理技术中仅仅是将原有的视频文件中的视频流进行播放,例如,在进行
视频通话时,将发送端利用摄像头所采集的本地视频直接发送至接收端进行播
放,这种视频播放方式比较呆板固定,用户也无法进行操作。

发明内容

本发明实施例提供一种视频处理方法及装置,可在目标视频中的人脸位置
上添加虚拟物品,并且用户可以对虚拟物品进行操作,视频处理方式丰富多样,
提高了用户体验。

本发明第一方面提供一种视频处理方法,可包括:

实时获取待处理的目标视频以及所述目标视频中的人脸位置太阳城集团;

获取待添加的虚拟物品,并根据所述虚拟物品的位置模型太阳城集团和所述人脸
位置太阳城集团计算所述虚拟物品在所述人脸位置上的添加位置;

在所述目标视频的所述添加位置实时绘制所述虚拟物品;

当检测到对所述虚拟物品的控制操作时,根据所述控制操作更新所述虚拟
物品的位置状态。

本发明第二方面提供一种视频处理装置,可包括:

第一获取模块,用于实时获取待处理的目标视频以及所述目标视频中的人
脸位置太阳城集团;

第二获取模块,用于获取待添加的虚拟物品,并根据所述虚拟物品的位置
模型太阳城集团和所述人脸位置太阳城集团计算所述虚拟物品在所述人脸位置上的添加位
置;

绘制模块,用于在所述目标视频的所述添加位置实时绘制所述虚拟物品;

更新模块,用于当检测到对所述虚拟物品的控制操作时,根据所述控制操
作更新所述虚拟物品的位置状态。

实施本发明实施例,具有如下有益效果:

本发明实施例,实时获取待处理的目标视频以及目标视频中的人脸位置信
息,获取待添加的虚拟物品,并根据虚拟物品的位置模型太阳城集团和人脸位置太阳城集团
计算虚拟物品在人脸位置上的添加位置,在目标视频的该添加位置实时绘制该
虚拟物品,当检测到对虚拟物品的控制操作时,根据控制操作更新虚拟物品的
位置状态。这种视频处理方式可在目标视频中的人脸位置上添加虚拟物品,并
且用户可以对虚拟物品进行操作,视频处理方式丰富多样,提高了用户体验。

附图说明

为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施
例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述
中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付
出创造性劳动的前提下,还可以根据这些附图获得其他的附图。

图1为本发明实施例提供的一种视频处理方法的流程图;

图2为本发明实施例提供的另一种视频处理方法的流程图;

图3为本发明实施例提供的又一种视频处理方法的流程图;

图4为本发明实施例提供的一种虚拟物品添加的示意图;

图5为本发明实施例提供的一种对虚拟物品操作的示意图;

图6为本发明实施例提供的一种视频同步的示意图;

图7为本发明实施例提供的一种视频通话的示意图;

图8为本发明实施例提供的一种数据帧结构示意图;

图9为本发明实施例提供的一种视频通话流程示意图;

图10为本发明实施例提供的一种视频处理装置的结构示意图;

图11为本发明实施例提供的另一种视频处理装置的结构示意图;

图12为本发明实施例提供的又一种视频处理装置的结构示意图。

具体实施方式

下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清
楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是
全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造
性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。

本发明实施例的视频处理方法可以应用于利用智能手机、个人电脑、个人
数字助手等终端的视频通话的应用场景中,也可以应用于利用终端观看视频的
应用场景中。采用本发明的视频处理方法可以实现在视频中人物的人脸相应位
置添加虚拟物品,视频处理方式丰富多样,提高了用户体验。

若本发明实施例的视频处理方法应用于视频通话应用场景中,则可以应用
于发送端的视频处理过程中,也可以应用于接收端的视频处理过程中。

本发明实施例中的虚拟物品可以包括静态虚拟物品(例如虚拟饰品),也可
以包括动态虚拟物品(例如电子宠物)。

下面将结合附图1-附图9,对本发明实施例提供的视频处理方法进行详细介
绍。

请参照图1,为本发明实施例提供的一种视频处理方法的流程图;该方法可
包括以下步骤S100-步骤S103。

S100,实时获取待处理的目标视频以及所述目标视频中的人脸位置太阳城集团;

具体实施例中,待处理的目标视频可以是用户正在观看的视频,也可以是
在即时通讯应用中通过调用系统组件打开本地摄像头采集的本地视频,或者为
终端与通信对端进行视频通话时,通信对端传输的目标视频。实时获取待处理
目标视频中的人脸位置太阳城集团的获取方式可以是,对目标视频中的视频数据进行
人脸检测,人脸检测算法比较多,可以根据具体项目需求进行选择,例如在即
时通讯应用中使用系统的图像检测方法,获得人脸特征数据,并将所获得的人
脸特征数据进行相应的转换(如位置比例、图像方向处理)得到视频图像中真
实人脸位置太阳城集团。

需要说明的是,当终端与通信对端进行视频通话时,所获取的目标视频为
通信对端所发送的视频,由于目标视频在传输过程中由于压缩、网络等原因会
造成目标视频的失真,因此若在终端对目标视频进行分析获得人脸位置太阳城集团是
不准确的,因此通信对端在发送目标视频时,同时将所分析得到的人脸位置信
息发送至终端,终端即可以获得目标视频中的人脸位置太阳城集团。

S101,获取待添加的虚拟物品,并根据所述虚拟物品的位置模型太阳城集团和所
述人脸位置太阳城集团计算所述虚拟物品在所述人脸位置上的添加位置;

具体实施例中,虚拟物品可以是在人的脸部周围叠加的虚拟物体,可选的,
虚拟物品可以是静态虚拟物品,例如帽子、眼镜、头饰等等,虚拟物品也可以
是动态虚拟物品,例如电子宠物。进一步可选的,本发明中的虚拟物品可以是
3D物体,所有的虚拟物品存储在虚拟物体模型库中,在虚拟物体模型库中每个
虚拟物品均作为一个本地文件进行存储,且进行不同的编号标识,在显示时根
据其标识来导入虚拟物品。虚拟物品的3D模型可以由第三方建模软件实现。在
获取待添加的虚拟物品时,直接导出绘制该虚拟物品所需的位置模型太阳城集团、纹
理贴图等等,该位置模型太阳城集团可以是对于人脸位置的相对位置(即是虚拟物品
在视图的显示位置),根据虚拟物品的位置模型太阳城集团和人脸位置太阳城集团可以计算出
虚拟物品在人脸位置上的添加位置,该添加位置即是在目标视频的具体图像中
的坐标太阳城集团。

S102,在所述目标视频的所述添加位置实时绘制所述虚拟物品;

具体实施例中,根据虚拟物品的显示形状样式、纹理贴图以及表面颜色在
目标视频的添加位置实时绘制虚拟物品,如图4右边的图所示,即是在人脸上
方绘制了一个帽子,如图4左边的图所示,为未绘制虚拟物品的人脸图像。由
于是实时绘制,因此当用户的人脸移动或者是摆动时,虚拟物品仍然会随着人
脸的变化而变化。如图5所示,当人脸位置向右移动时,帽子也会跟随人脸移
动变化,当人脸位置摆动时,帽子也会跟随人脸摆动而倾斜。

S103,当检测到对所述虚拟物品的控制操作时,根据所述控制操作更新所
述虚拟物品的位置状态。

具体实施例中,当虚拟物品在目标视频中正确显示后,用户可以对虚拟视
频进行控制操作,例如用户可以点击、旋转、移动虚拟物品,具体的,监听用
户在屏幕的滑动太阳城集团,根据该滑动太阳城集团对虚拟物体的位置矩阵进行变换实现对
虚拟物体的平移、旋转、缩放等等,从而更新虚拟物品的位置状态。

本发明实施例,实时获取待处理的目标视频以及目标视频中的人脸位置信
息,获取待添加的虚拟物品,并根据虚拟物品的位置模型太阳城集团和人脸位置太阳城集团
计算虚拟物品在人脸位置上的添加位置,在目标视频的该添加位置实时绘制该
虚拟物品,当检测到对虚拟物品的控制操作时,根据控制操作更新虚拟物品的
位置状态。这种视频处理方式可在目标视频中的人脸位置上添加虚拟物品,并
且用户可以对虚拟物品进行操作,视频处理方式丰富多样,提高了用户体验。

请参照图2,为本发明实施例提供的另一种视频处理方法的流程图;该方法
可包括以下步骤S200-步骤S207。

S200,实时采集本地视频数据,并将所述本地视频数据确定为待处理的目
标视频;

具体实施例中,当用户通过终端的即时通讯应用与通信对端进行视频通话
时,通过调用系统组件打开本地摄像头采集本地视频数据,将所采集的本地视
频数据确定为待处理的目标视频。将目标视频压缩组包通过即时通讯应用的特
定通道传输至通信对端,通信对端再进行解包显示。本发明中在将目标视频传
输至通信对端时,还需要对目标视频进行处理,在目标视频中的人脸位置周围
叠加虚拟物品,例如帽子、眼镜、头饰、电子宠物等等。

S201,对所述目标视频进行分析,获得所述目标视频中的人脸位置太阳城集团。

具体实施例中,对目标视频进行人脸检测分析,获得目标视频中的人脸位
置太阳城集团。人脸检测算法比较多,可根据具体项目需求进行选择。在即时通讯应
用中使用系统的图像检测方法,获得人脸特征数据并将该人脸特征数据进行相
应的转换(位置比例、图像方向处理)得到目标视频中图像的真实人脸位置。

S202,从虚拟物体模型库中获取待添加的虚拟物品,并从所述虚拟物体模
型库中获取与所述虚拟物品对应的位置矩阵;

具体实施例中,所添加的虚拟物品可以是3D物体,获取方式为从虚拟物体
模型库中获取待添加的虚拟物品。需要说明的是,获取之前需要对虚拟物体模
型库进行初始化,在虚拟物体模型库中建立各个虚拟物品的3D模型,建立虚拟
物品的3D模型可以由第三方建模软件实现,当需要获取某一个虚拟物品时,直
接从虚拟物体模型库中导出绘制该虚拟物品的模型太阳城集团即可,模型太阳城集团可以包
括该虚拟物品对应的位置矩阵、纹理贴图等等。在使用虚拟物体模型库中建立
虚拟物品的3D模型时,由4个要素组成:

1.虚拟物品的显示模型,用来控制模型的形状样式。

2.虚拟物品的纹理贴图,决定模型的表面纹理,比如帽子的材质。

3.虚拟物品的表面颜色,用来控制模型的整体色调。

4.虚拟物品对应的位置矩阵,决定模型在视图的显示位置。

只要获得了人脸位置太阳城集团和建模软件导出的模型太阳城集团,即可完成在人脸的
适当位置显示虚拟物品,并可随着人脸的移动和人脸的摆动发生相应的变化。

在本地所建立的虚拟物体模型库中,每个虚拟物品的模型太阳城集团作为一个本
地文件进行存储,且进行不同的标识,在显示时根据其标识来导入虚拟物品的
模型太阳城集团。在本发明实施例中,使用即时通讯应用的离线更新机制来管理虚拟
物体模型库,并随时更新虚拟物品的样式,初始安装时将默认的几个虚拟物品
的模型太阳城集团打包进去,之后在用户使用过程中,当后台完成一个新的虚拟物品
发布给用户,即时通讯应用即根据检查更新机制来完成虚拟物体模型库的更新。

S203,根据所述虚拟物品对应的位置矩阵和所述人脸位置太阳城集团计算所述虚
拟物品在所述人脸位置上的添加位置。

具体实施例中,虚拟物品对应的位置矩阵可以表明虚拟物品在人脸位置上
的相对位置,人脸位置太阳城集团可以表明真实人脸在目标视频的坐标太阳城集团,因此根
据虚拟物品对应的位置矩阵和人脸位置太阳城集团可以计算出虚拟物品在人脸位置上
的添加位置,该添加位置即是虚拟物品在目标视频中的坐标太阳城集团。

S204,在所述目标视频的所述添加位置实时绘制所述虚拟物品;

本发明实施例步骤S204请参照图1的实施例步骤S102,在此不再赘述。

S205,当检测到通过终端触屏设备对所述虚拟物品进行控制操作时,将所
述控制操作转换为模型位置改变太阳城集团;

具体实施例中,虚拟物品显示后,用户可以通过终端触屏设备对虚拟物品进
行控制操作,例如点击、旋转以及移动等等。当在移动模式下,用户手指拖拽
虚拟物品时,将在屏幕中的滑动太阳城集团转换为模型位置改变太阳城集团,来控制虚拟物
品跟随手指移动方向调整虚拟物品的位置;在旋转模式下,将用户在屏幕不同
的旋转角度太阳城集团转换为模型位置改变太阳城集团,并控制虚拟物品跟随用户的意愿进
行不同角度的旋转。在所有模式下均可根据用户的双指缩放手势来控制饰品的
展示大小,即是将缩放移动太阳城集团转换为模型位置改变太阳城集团。

S206,根据所述模型位置改变太阳城集团,更新所述虚拟物品的位置状态。

具体实施例中,根据所获得的模型位置改变太阳城集团,可以更新虚拟物品的位
置状态,例如,根据模型位置改变太阳城集团对虚拟物品进行移动、旋转等等。

可选的,若所述终端与通信对端进行视频通话,本发明实施例还包括步骤
S207:

S207,将所述目标视频、所述人脸位置太阳城集团、所述虚拟物品标识以及用于
表示所述控制操作的交互数据同步至所述通信对端,以使所述通信对端重组添
加虚拟物品后的所述目标视频。

具体实施例中,当终端与通信对端进行视频通话时,为了将本端用户添加
了虚拟物品的目标视频传输至通信对端,使得通信对端可以实时同步显示,本
发明实施例中所采用的方法是将目标视频、所检测出的人脸位置太阳城集团、虚拟物
品标识以及用于表示控制操作的交互数据同步至通信对端,以使通信对端可以
重组添加虚拟物品后的目标视频,即是重新在目标视频中的人脸的相应位置绘
制虚拟物品,如图6所示,两个画面分别为在发送端的终端所显示的画面和接
收端的通信对端所显示的画面。

具体的,如图8所示,即是需要传输的各个数据的帧结构图,传输通道中
一帧数据结构中包括图像数据和饰品数据,图像数据即是目标视频数据。饰品
数据字段包括:本地视频检测的人脸位置太阳城集团facePositon;本地视频用户对虚拟
物品的移动数据localMoveData;本地视频用户对虚拟物品的旋转数据
localRotatData;本地视频用户对虚拟物品的缩放数据localScalData;本地视频中
虚拟物品标识localID。

在视频通话过程中,任何一端均可以作为发送端,如图7所示,当客户端A
将本地发送画面中的人脸位置太阳城集团和交互数据发送至客户端B时,则本发明实
施例适用于客户端A,当客户端B将本地发送画面中的人脸位置太阳城集团和交互数
据发送至客户端A时,则本发明实施例适用于客户端B。

本发明实施例,实时获取待处理的目标视频以及目标视频中的人脸位置信
息,获取待添加的虚拟物品,并根据虚拟物品的位置模型太阳城集团和人脸位置太阳城集团
计算虚拟物品在人脸位置上的添加位置,在目标视频的该添加位置实时绘制该
虚拟物品,当检测到对虚拟物品的控制操作时,根据控制操作更新虚拟物品的
位置状态。这种视频处理方式可在目标视频中的人脸位置上添加虚拟物品,并
且用户可以对虚拟物品进行操作,视频处理方式丰富多样,提高了用户体验。

请参照图3,为本发明实施例提供的又一种视频处理方法的流程图;该方法
可包括以下步骤S300-步骤S304。

S300,当终端与通信对端进行视频通话时,获取所述通信对端同步的目标
视频以及所述目标视频中的人脸位置太阳城集团。

具体实施例中,在目标视频中添加虚拟物品的视频处理方法既适用于进行
视频通话的发送端,也适用于进行视频通话的接收端,若为接收端对目标视频
进行处理时,则获取通信对端同步的目标视频以及目标视频中的人脸位置太阳城集团。
如图8所示,获取通信对端同步的帧结构中图像数据以及饰品数据中的人脸位
置太阳城集团。

S301,获取所述通信对端同步的待添加的虚拟物品标识,并从虚拟物体模
型库中获取与所述虚拟物品标识对应的虚拟物品以及与所述虚拟物品对应的位
置矩阵;

具体实施例中,为了能够减小数据传输量,在视频通话过程中,通信对端
仅仅是将待添加的虚拟物品标识同步至本端,如图8所示,获取通信对端同步
的帧结构中饰品数据中虚拟物品标识。本端与通信对端均建立了虚拟物体模型
库,因此可以从虚拟物体模型库中获取与虚拟物品标识对应的虚拟物品以及位
置矩阵。

S302,根据所述虚拟物品对应的位置矩阵和所述人脸位置太阳城集团计算所述虚
拟物品在所述人脸位置上的添加位置。

具体实施例中,与图2的步骤S203相同的计算方式,根据虚拟物品对应的
位置矩阵和人脸位置太阳城集团即可以计算虚拟物品在人脸位置上的添加位置,由于
是相同的目标视频、相同的人脸位置太阳城集团、相同的虚拟物品以及相同的计算方
式,因此本端可以达到和通信对端视频同步的效果。

S303,在所述目标视频的所述添加位置实时绘制所述虚拟物品;

本发明实施例步骤S303请参照图1的实施例步骤S102,在此不再赘述。

S304,当检测到所述通信对端同步用于表示对所述虚拟物品的控制操作的
交互数据时,根据所述交互数据更新所述虚拟物品的位置状态。

具体实施例中,若通信对端对虚拟物品进行了控制操作,则会将用于表示
对虚拟物品的控制操作的交互数据同步至本端,如图8所示,获取通信对端同
步的帧结构中饰品数据中交互数据,该交互数据表明用户对虚拟物品的一些控
制操作,例如移动、旋转等等。根据交互数据更新虚拟物品的位置状态,即可
以达到与通信对端实时同步的效果。

本发明实施例,实时获取待处理的目标视频以及目标视频中的人脸位置信
息,获取待添加的虚拟物品,并根据虚拟物品的位置模型太阳城集团和人脸位置太阳城集团
计算虚拟物品在人脸位置上的添加位置,在目标视频的该添加位置实时绘制该
虚拟物品,当检测到对虚拟物品的控制操作时,根据控制操作更新虚拟物品的
位置状态。这种视频处理方式可在目标视频中的人脸位置上添加虚拟物品,并
且用户可以对虚拟物品进行操作,视频处理方式丰富多样,提高了用户体验。

本发明实施例主要针对虚拟物品为动态虚拟物品进行举例说明,该方法可
包括以下步骤S400-步骤S403;

S400,实时获取待处理的目标视频以及所述目标视频中的人脸位置太阳城集团;

本发明实施例步骤S400请参照图1的实施例步骤S100,在此不再赘述。

S401,获取待添加的虚拟物品,并根据所述虚拟物品的位置模型太阳城集团和所
述人脸位置太阳城集团计算所述虚拟物品在所述人脸位置上的添加位置;

具体实施例中,待添加的虚拟物品可以为动态虚拟物品,例如,电子宠物。
所有的动态虚拟物品存储在虚拟物体模型库中,在虚拟物体模型库中每个动态
虚拟物品均作为一个本地文件进行存储,且进行不同的编号标识,在显示时根
据其标识来导入动态虚拟物品。由于虚拟物品为动态物品,因此每个本地文件
中存储了该动态虚拟物品对应的多帧数据,对于每一帧数据实际为一个静态虚
拟物品图像。在一个本地文件中的每一帧数据包括该帧图像显示中虚拟物品的
显示形状样式、纹理贴图、表面颜色以及位置模型太阳城集团,因此在建模导出动态
虚拟物品的某一帧数据时与静态虚拟物品的建模导出方式一样,即是在对动态
虚拟物品的每一帧数据建模时也需要4个要素组成:

1.动态虚拟物品的显示模型,用来控制模型的形状样式。

2.动态虚拟物品的纹理贴图,决定模型的表面纹理,比如帽子的材质。

3.动态虚拟物品的表面颜色,用来控制模型的整体色调。

4.动态虚拟物品对应的位置矩阵,决定模型在视图的显示位置。

根据动态虚拟物品的每一帧数据中位置模型太阳城集团和人脸位置太阳城集团可以计算
出动态虚拟物品的每一帧数据对应在人脸位置上的添加位置。

S402,在所述目标视频的所述添加位置实时绘制所述虚拟物品;

具体实施例中,由于虚拟物品为动态虚拟物品,存在多帧数据,因此在目
标视频中绘制动态虚拟物品时,需要根据每帧数据中的位置模型太阳城集团、显示形
状样式、纹理贴图以及表面颜色进行实时绘制,每帧数据之间的绘制间隔可以
和目标视频中每帧图像数据之间的间隔相同,也可以不同。通过根据动态虚拟
物品的多帧数据进行实时绘制,给用户视觉可以产生动态效果。

S403,当检测到对所述虚拟物品的控制操作时,根据所述控制操作更新所
述虚拟物品的位置状态。

具体实施例中,由于动态虚拟物品存在多帧数据之间间隔显示,因此当检
测到控制操作时,目标视频中可能正在显示动态虚拟物品中的某一帧数据,则
在根据控制操作更新虚拟物品的状态时,也需要对正在显示的动态虚拟物品的
该帧数据进行位置矩阵变换,从而实现更新动态虚拟物品的位置状态。

需要说明的是,当终端与通信对端进行视频通话时,也需要将动态虚拟物
品标识同步至通信对端,通信对端也可以通过从虚拟物体模型库中获取该动态
虚拟物品标识所对应的多帧数据,并进行实时绘制,达到同步效果。

请参阅图9,为本发明实施例提供的一种视频通话流程示意图,本实施例的
视频处理方法既可以适用于发送方终端,也可以适用于接收方终端,图2实施
例中的视频处理方法可以适用于发送方终端,图3实施例中的视频处理方法可
以适用于接收方终端,但是任何一个终端均可以作为发送方终端,也可以作为
接收方终端;

如图9所示,发送方终端中获取本地视频后进行人脸检测获得人脸位置数
据,根据人脸位置数据添加虚拟物品形成虚拟画面,用户可以对虚拟画面中的
虚拟物品进行操作,则虚拟画面中的虚拟物品变化,形成显示的虚实画面。同
时将用于表示对虚拟物品操作的交互数据以及人脸位置数据通过传输通道传输
至接收方终端。发送方终端将目标视频也通过视频传输通道传输至接收方终端。

接收方终端从传输通道中的帧结构中获取人脸位置、交互数据以及目标视
频,根据目标视频中的人脸位置添加虚拟物品,形成虚拟画面,再根据交互数
据对虚拟画面中的虚拟物品进行相应的变化,形成虚实画面,与发送方终端达
到同步效果。

下面将结合附图10-附图12,对本发明实施例提供的一种视频处理装置进行
详细介绍。

请参阅图10,为本发明实施例提供的一种视频处理装置的结构示意图;该
装置可包括:第一获取模块100、第二获取模块101、绘制模块102以及更新模
块103;

第一获取模块100,用于实时获取待处理的目标视频以及所述目标视频中的
人脸位置太阳城集团;

具体实施例中,待处理的目标视频可以是用户正在观看的视频,也可以是
在即时通讯应用中通过调用系统组件打开本地摄像头采集的本地视频,或者为
终端与通信对端进行视频通话时,通信对端传输的目标视频。第一获取模块100
实时获取待处理目标视频中的人脸位置太阳城集团的获取方式可以是,对目标视频中
的视频数据进行人脸检测,人脸检测算法比较多,可以根据具体项目需求进行
选择,例如在即时通讯应用中使用系统的图像检测方法,获得人脸特征数据,
并将所获得的人脸特征数据进行相应的转换(如位置比例、图像方向处理)得
到视频图像中真实人脸位置太阳城集团。

需要说明的是,当终端与通信对端进行视频通话时,所获取的目标视频为
通信对端所发送的视频,由于目标视频在传输过程中由于压缩、网络等原因会
造成目标视频的失真,因此若在终端对目标视频进行分析获得人脸位置太阳城集团是
不准确的,因此通信对端在发送目标视频时,同时将所分析得到的人脸位置信
息发送至终端,终端即可以获得目标视频中的人脸位置太阳城集团。

第二获取模块101,用于获取待添加的虚拟物品,并根据所述虚拟物品的位
置模型太阳城集团和所述人脸位置太阳城集团计算所述虚拟物品在所述人脸位置上的添加位
置;

具体实施例中,虚拟物品可以是在人的脸部周围叠加的虚拟物体,可选的,
虚拟物品可以是静态虚拟物品,例如帽子、眼镜、头饰等等,虚拟物品也可以
是动态虚拟物品,例如电子宠物。进一步可选的,本发明中的虚拟物品可以是
3D物体,所有的虚拟物品存储在虚拟物体模型库中,在虚拟物体模型库中每个
虚拟物品均作为一个本地文件进行存储,且进行不同的编号标识,在显示时根
据其标识来导入虚拟物品。虚拟物品的3D模型可以由第三方建模软件实现。第
二获取模块101在获取待添加的虚拟物品时,直接导出绘制该虚拟物品所需的
位置模型太阳城集团、纹理贴图等等,该位置模型太阳城集团可以是对于人脸位置的相对位
置(即是虚拟物品在视图的显示位置),根据虚拟物品的位置模型太阳城集团和人脸位
置太阳城集团可以计算出虚拟物品在人脸位置上的添加位置,该添加位置即是在目标
视频的具体图像中的坐标太阳城集团。

进一步可选的,待添加的虚拟物品可以为动态虚拟物品,例如,电子宠物。
所有的动态虚拟物品存储在虚拟物体模型库中,在虚拟物体模型库中每个动态
虚拟物品均作为一个本地文件进行存储,且进行不同的编号标识,在显示时根
据其标识来导入动态虚拟物品。由于虚拟物品为动态物品,因此每个本地文件
中存储了该动态虚拟物品对应的多帧数据,对于每一帧数据实际为一个静态虚
拟物品图像。在一个本地文件中的每一帧数据包括该帧图像显示中虚拟物品的
显示形状样式、纹理贴图、表面颜色以及位置模型太阳城集团,因此在建模导出动态
虚拟物品的某一帧数据时与静态虚拟物品的建模导出方式一样,即是在对动态
虚拟物品的每一帧数据建模时也需要4个要素组成:

1.动态虚拟物品的显示模型,用来控制模型的形状样式。

2.动态虚拟物品的纹理贴图,决定模型的表面纹理,比如帽子的材质。

3.动态虚拟物品的表面颜色,用来控制模型的整体色调。

4.动态虚拟物品对应的位置矩阵,决定模型在视图的显示位置。

根据动态虚拟物品的每一帧数据中位置模型太阳城集团和人脸位置太阳城集团可以计算
出动态虚拟物品的每一帧数据对应在人脸位置上的添加位置。

绘制模块102,用于在所述目标视频的所述添加位置实时绘制所述虚拟物
品;

具体实施例中,绘制模块102根据虚拟物品的显示形状样式、纹理贴图以
及表面颜色在目标视频的添加位置实时绘制虚拟物品,如图4右边的图所示,
即是在人脸上方绘制了一个帽子,如图4左边的图所示,为未绘制虚拟物品的
人脸图像。由于是实时绘制,因此当用户的人脸移动或者是摆动时,虚拟物品
仍然会随着人脸的变化而变化。如图5所示,当人脸位置向右移动时,帽子也
会跟随人脸移动变化,当人脸位置摆动时,帽子也会跟随人脸摆动而倾斜。

进一步可选的,虚拟物品可以为动态虚拟物品,由于虚拟物品为动态虚拟
物品,因此存在多帧数据,因此在目标视频中绘制动态虚拟物品时,需要根据
每帧数据中的位置模型太阳城集团、显示形状样式、纹理贴图以及表面颜色进行实时
绘制,每帧数据之间的绘制间隔可以和目标视频中每帧图像数据之间的间隔相
同,也可以不同。通过根据动态虚拟物品的多帧数据进行实时绘制,给用户视
觉可以产生动态效果。

更新模块103,用于当检测到对所述虚拟物品的控制操作时,根据所述控制
操作更新所述虚拟物品的位置状态。

具体实施例中,当虚拟物品在目标视频中正确显示后,用户可以对虚拟视
频进行控制操作,例如用户可以点击、旋转、移动虚拟物品,具体的,更新模
块103监听用户在屏幕的滑动太阳城集团,根据该滑动太阳城集团对虚拟物体的位置矩阵进
行变换实现对虚拟物体的平移、旋转、缩放等等,从而更新虚拟物品的位置状
态。

进一步可选的,虚拟物品可以为动态虚拟物品,由于动态虚拟物品存在多
帧数据之间间隔显示,因此当检测到控制操作时,目标视频中可能正在显示动
态虚拟物品中的某一帧数据,则在根据控制操作更新虚拟物品的状态时,也需
要对正在显示的动态虚拟物品的该帧数据进行位置矩阵变换,从而实现更新动
态虚拟物品的位置状态。

本发明实施例,实时获取待处理的目标视频以及目标视频中的人脸位置信
息,获取待添加的虚拟物品,并根据虚拟物品的位置模型太阳城集团和人脸位置太阳城集团
计算虚拟物品在人脸位置上的添加位置,在目标视频的该添加位置实时绘制该
虚拟物品,当检测到对虚拟物品的控制操作时,根据控制操作更新虚拟物品的
位置状态。这种视频处理方式可在目标视频中的人脸位置上添加虚拟物品,并
且用户可以对虚拟物品进行操作,视频处理方式丰富多样,提高了用户体验。

请参照图11,为本发明实施例提供的另一种视频处理装置的结构示意图;
该装置是在图10的视频处理装置上进行优化得到,如图所示,本发明实施例的
视频处理装置包括:

第一获取模块200,用于实时获取待处理的目标视频以及所述目标视频中的
人脸位置太阳城集团;

可选的,如图所示,第一获取模块200可以包括采集单元2000和分析单
元2001;

采集单元2000,用于实时采集本地视频数据,并将所述本地视频数据确定
为待处理的目标视频;

具体实施例中,当用户通过终端的即时通讯应用与通信对端进行视频通话
时,采集单元2000通过调用系统组件打开本地摄像头采集本地视频数据,将所
采集的本地视频数据确定为待处理的目标视频。将目标视频压缩组包通过即时
通讯应用的特定通道传输至通信对端,通信对端再进行解包显示。本发明中在
将目标视频传输至通信对端时,还需要对目标视频进行处理,在目标视频中的
人脸位置周围叠加虚拟物品,例如帽子、眼镜、头饰、电子宠物等等。

分析单元2001,用于对所述目标视频进行分析,获得所述目标视频中的人
脸位置太阳城集团。

具体实施例中,分析单元2001对目标视频进行人脸检测分析,获得目标视
频中的人脸位置太阳城集团。人脸检测算法比较多,可根据具体项目需求进行选择。
在即时通讯应用中使用系统的图像检测方法,获得人脸特征数据并将该人脸特
征数据进行相应的转换(位置比例、图像方向处理)得到目标视频中图像的真实人
脸位置。

第二获取模块201,用于获取待添加的虚拟物品,并根据所述虚拟物品的位
置模型太阳城集团和所述人脸位置太阳城集团计算所述虚拟物品在所述人脸位置上的添加位
置;

可选的,如图所示,第二获取模块201包括第一获取单元2010和第一计算
单元2011;

第一获取单元2010,用于从虚拟物体模型库中获取待添加的虚拟物品,并
从所述虚拟物体模型库中获取与所述虚拟物品对应的位置矩阵;

具体实施例中,所添加的虚拟物品可以是3D物体,第一获取单元2010获
取方式为从虚拟物体模型库中获取待添加的虚拟物品。需要说明的是,获取之
前需要对虚拟物体模型库进行初始化,在虚拟物体模型库中建立各个虚拟物品
的3D模型,建立虚拟物品的3D模型可以由第三方建模软件实现,当需要获取
某一个虚拟物品时,直接从虚拟物体模型库中导出绘制该虚拟物品的模型太阳城集团
即可,模型太阳城集团可以包括该虚拟物品对应的位置矩阵、纹理贴图等等。在使用
虚拟物体模型库中建立虚拟物品的3D模型时,由4个要素组成:

1.虚拟物品的显示模型,用来控制模型的形状样式。

2.虚拟物品的纹理贴图,决定模型的表面纹理,比如帽子的材质。

3.虚拟物品的表面颜色,用来控制模型的整体色调。

4.虚拟物品对应的位置矩阵,决定模型在视图的显示位置。

只要获得了人脸位置太阳城集团和建模软件导出的模型太阳城集团,即可完成在人脸的
适当位置显示虚拟物品,并可随着人脸的移动和人脸的摆动发生相应的变化。

在本地所建立的虚拟物体模型库中,每个虚拟物品的模型太阳城集团作为一个本
地文件进行存储,且进行不同的标识,在显示时根据其标识来导入虚拟物品的
模型太阳城集团。在本发明实施例中,使用即时通讯应用的离线更新机制来管理虚拟
物体模型库,并随时更新虚拟物品的样式,初始安装时将默认的几个虚拟物品
的模型太阳城集团打包进去,之后在用户使用过程中,当后台完成一个新的虚拟物品
发布给用户,即时通讯应用即根据检查更新机制来完成虚拟物体模型库的更新。

第一计算单元2011,用于根据所述虚拟物品对应的位置矩阵和所述人脸位
置太阳城集团计算所述虚拟物品在所述人脸位置上的添加位置。

具体实施例中,虚拟物品对应的位置矩阵可以表明虚拟物品在人脸位置上
的相对位置,人脸位置太阳城集团可以表明真实人脸在目标视频的坐标太阳城集团,因此第
一计算单元2011根据虚拟物品对应的位置矩阵和人脸位置太阳城集团可以计算出虚拟
物品在人脸位置上的添加位置,该添加位置即是虚拟物品在目标视频中的坐标
太阳城集团。

绘制模块202,用于在所述目标视频的所述添加位置实时绘制所述虚拟物
品;

更新模块203,用于当检测到对所述虚拟物品的控制操作时,根据所述控制
操作更新所述虚拟物品的位置状态。

可选的,如图所示,更新模块203可以包括转换单元2030和更新单元2031;

转换单元2030,用于当检测到通过终端触屏设备对所述虚拟物品进行控制
操作时,将所述控制操作转换为模型位置改变太阳城集团;

具体实施例中,虚拟物品显示后,用户可以通过终端触屏设备对虚拟物品进
行控制操作,例如点击、旋转以及移动等等。当在移动模式下,用户手指拖拽
虚拟物品时,将在屏幕中的滑动太阳城集团转换为模型位置改变太阳城集团,来控制虚拟物
品跟随手指移动方向调整虚拟物品的位置;在旋转模式下,将用户在屏幕不同
的旋转角度太阳城集团转换为模型位置改变太阳城集团,并控制虚拟物品跟随用户的意愿进
行不同角度的旋转。在所有模式下均可根据用户的双指缩放手势来控制饰品的
展示大小,即是将缩放移动太阳城集团转换为模型位置改变太阳城集团。

更新单元2031,用于根据所述模型位置改变太阳城集团,更新所述虚拟物品的位
置状态。

具体实施例中,更新单元2031根据所获得的模型位置改变太阳城集团,可以更新
虚拟物品的位置状态,例如,根据模型位置改变太阳城集团对虚拟物品进行移动、旋
转等等。

进一步可选的,本发明实施例的视频处理装置还可以包括同步模块204;

同步模块204,用于将所述目标视频、所述人脸位置太阳城集团、所述虚拟物品标
识以及用于表示所述控制操作的交互数据同步至所述通信对端,以使所述通信
对端重组添加虚拟物品后的所述目标视频。

具体实施例中,当终端与通信对端进行视频通话时,为了将本端用户添加
了虚拟物品的目标视频传输至通信对端,使得通信对端可以实时同步显示,本
发明实施例中所采用的方法是同步模块204将目标视频、所检测出的人脸位置
太阳城集团、虚拟物品标识以及用于表示控制操作的交互数据同步至通信对端,以使
通信对端可以重组添加虚拟物品后的目标视频,即是重新在目标视频中的人脸
的相应位置绘制虚拟物品,如图6所示,两个画面分别为在发送端的终端所显
示的画面和接收端的通信对端所显示的画面。

具体的,如图8所示,即是需要传输的各个数据的帧结构图,传输通道中
一帧数据结构中包括图像数据和饰品数据,图像数据即是目标视频数据。饰品
数据字段包括:本地视频检测的人脸位置太阳城集团facePositon;本地视频用户对虚拟
物品的移动数据localMoveData;本地视频用户对虚拟物品的旋转数据
localRotatData;本地视频用户对虚拟物品的缩放数据localScalData;本地视频中
虚拟物品标识localID。

在视频通话过程中,任何一端均可以作为发送端,如图7所示,当客户端A
将本地发送画面中的人脸位置太阳城集团和交互数据发送至客户端B时,则本发明实
施例适用于客户端A,当客户端B将本地发送画面中的人脸位置太阳城集团和交互数
据发送至客户端A时,则本发明实施例适用于客户端B。

本发明实施例,实时获取待处理的目标视频以及目标视频中的人脸位置信
息,获取待添加的虚拟物品,并根据虚拟物品的位置模型太阳城集团和人脸位置太阳城集团
计算虚拟物品在人脸位置上的添加位置,在目标视频的该添加位置实时绘制该
虚拟物品,当检测到对虚拟物品的控制操作时,根据控制操作更新虚拟物品的
位置状态。这种视频处理方式可在目标视频中的人脸位置上添加虚拟物品,并
且用户可以对虚拟物品进行操作,视频处理方式丰富多样,提高了用户体验。

请参照图12,为本发明实施例提供的又一种视频处理装置的结构示意图;
该装置是在图10的视频处理装置上进行优化得到,如图所示,本发明实施例的
视频处理装置包括:

第一获取模块300,用于实时获取待处理的目标视频以及所述目标视频中的
人脸位置太阳城集团;

可选的,第一获取模块300具体用于当终端与通信对端进行视频通话时,
获取所述通信对端同步的目标视频以及所述目标视频中的人脸位置太阳城集团。

具体实施例中,在目标视频中添加虚拟物品的视频处理方法既适用于进行
视频通话的发送端,也适用于进行视频通话的接收端,若为接收端对目标视频
进行处理时,则第一获取模块300获取通信对端同步的目标视频以及目标视频
中的人脸位置太阳城集团。如图8所示,获取通信对端同步的帧结构中图像数据以及
饰品数据中的人脸位置太阳城集团。

第二获取模块301,用于获取待添加的虚拟物品,并根据所述虚拟物品的位
置模型太阳城集团和所述人脸位置太阳城集团计算所述虚拟物品在所述人脸位置上的添加位
置;

可选的,第二获取模块301包括第二获取单元3010和第二计算单元3011;

第二获取单元3010,用于获取所述通信对端同步的待添加的虚拟物品标识,
并从虚拟物体模型库中获取与所述虚拟物品标识对应的虚拟物品以及与所述虚
拟物品对应的位置矩阵;

具体实施例中,为了能够减小数据传输量,在视频通话过程中,通信对端
仅仅是将待添加的虚拟物品标识同步至本端,如图8所示,第二获取单元3010
获取通信对端同步的帧结构中饰品数据中虚拟物品标识。本端与通信对端均建
立了虚拟物体模型库,因此可以从虚拟物体模型库中获取与虚拟物品标识对应
的虚拟物品以及位置矩阵。

第二计算单元3011,用于根据所述虚拟物品对应的位置矩阵和所述人脸位
置太阳城集团计算所述虚拟物品在所述人脸位置上的添加位置。

具体实施例中,与第一计算单元相同的计算方式,根据虚拟物品对应的位
置矩阵和人脸位置太阳城集团即可以计算虚拟物品在人脸位置上的添加位置,由于是
相同的目标视频、相同的人脸位置太阳城集团、相同的虚拟物品以及相同的计算方式,
因此本端可以达到和通信对端视频同步的效果。

绘制模块302,用于在所述目标视频的所述添加位置实时绘制所述虚拟物
品;

更新模块303,用于当检测到对所述虚拟物品的控制操作时,根据所述控制
操作更新所述虚拟物品的位置状态。

可选的,所述更新模块303具体用于当检测到所述通信对端同步用于表示
对所述虚拟物品的控制操作的交互数据时,根据所述交互数据更新所述虚拟物
品的位置状态。

具体实施例中,若通信对端对虚拟物品进行了控制操作,则会将用于表示
对虚拟物品的控制操作的交互数据同步至本端,如图8所示,获取通信对端同
步的帧结构中饰品数据中交互数据,该交互数据表明用户对虚拟物品的一些控
制操作,例如移动、旋转等等。更新模块303根据交互数据更新虚拟物品的位
置状态,即可以达到与通信对端实时同步的效果。

本发明实施例,实时获取待处理的目标视频以及目标视频中的人脸位置信
息,获取待添加的虚拟物品,并根据虚拟物品的位置模型太阳城集团和人脸位置太阳城集团
计算虚拟物品在人脸位置上的添加位置,在目标视频的该添加位置实时绘制该
虚拟物品,当检测到对虚拟物品的控制操作时,根据控制操作更新虚拟物品的
位置状态。这种视频处理方式可在目标视频中的人脸位置上添加虚拟物品,并
且用户可以对虚拟物品进行操作,视频处理方式丰富多样,提高了用户体验。

本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,
是可以通过计算机程序指令相关的硬件来完成,所述的程序可存储于一计算机
可读取存储介质中,附图10-附图12所示视频处理装置的模块对应的程序可存
储在视频处理装置的可读存储介质内,并被该视频处理装置中的至少一个处理
器执行,以实现上述视频处理方法,该方法包括图1至图9中各方法实施例所
述的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only
Memory,ROM)或随机存储记忆体(Random Access Memory,RAM)等。

以上所揭露的仅为本发明较佳实施例而已,当然不能以此来限定本发明之
权利范围,因此依本发明权利要求所作的等同变化,仍属本发明所涵盖的范围。

关 键 词:
一种 视频 处理 方法 装置
  专利查询网所有资源均是用户自行上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作他用。
太阳城集团本文
本文标题:一种视频处理方法及装置.pdf
链接地址:http://zh228.com/p-6100538.html
太阳城集团我们 - 网站声明 - 网站地图 - 资源地图 - 友情链接 - 网站客服客服 - 联系我们

copyright@ 2017-2018 zhuanlichaxun.net网站版权所有
经营许可证编号:粤ICP备17046363号-1 
 


收起
展开
葡京赌场|welcome document.write ('');