目前通过图像识别的方式区分视频类型,并已完成应用层的实现,识别率很高
相比通过获取视频文件特征标识的方式
优点:
1.不用修改系统的MediaScanner 所以不用升级系统
2.视频文件中一般只有mp4文件有metadata 其中box和uuid之类的特征标识并没有标准行业规范 所以通过图像识别的方式
没有文件格式和视频编解码的限制
缺点:
1.比获取视频文件特征标识的方式速度慢
基本思路
1.对一个视频 根据播放时长平均取若干帧图像 根据每帧图像识别后 返回的类型 做加权 最后权值大于40% 则为该类型
2.判断流程:
先判断左右眼3d — true — 返回3d类型 — false —
判断上下眼3d — true — 返回3d类型— false —
判断全景 — true — 返回全景— false — 返回2d
3.判断左右眼3d:取图像最中间一列像素 作为基准线 判断该列和其右边一列是否有连续性 如果不连续 则为左右眼3d
但很多3d视频左右眼宽度不相等 所以一次判断不是 还需要多判断几次 即左右各移动两次 每次移动一列
4.判断上下眼3d:取图像最中间一行像素 作为基准线 判断该行和其下面一行是否有连续性 如果不连续 则为上下眼3d
但很多3d视频上下眼高度不相等 所以一次判断不是 还需要多判断几次 即上下各移动两次 每次移动一行
5.判断全景视频:由于全景视频是360度的 所以图像最左边一列(第0列)和最右边一列(第n-1列) 必然可以连接起来 所以判断这两列是否有连续性 如果连续
则为全景视频
后面发现还存在如下问题
1.视频取帧速度慢 取一帧需要几百毫秒 所以性能瓶颈不在算法的时间复杂度 而是调用系统函数取视频帧慢
2.加权阀值40% 不合适 如果取两帧 则权重阀值为0了 至少应为50% 取帧的数量会影响耗时
3.如果视频有片头或片尾 比如黑色画面 显示演员列表之类的 对于图像判断连续性及加权结果 有很大影响
4.无论左右眼还是上下眼3d 很多视频 中间会有间隙或黑线 视频分辨率越高则间隙或黑线所占像素的行列越多 所以仅仅移动像素行列两次 是没用的
5.视频画面很暗 则对判断像素的连续性 有影响
我的解决办法及优化
1.跳过视频时长的前后10%的时间段 认为是片头或片尾 对视频中间的时间段取帧
2.取10帧或者取1帧 其实大部分情况下 在图像上的特征没有区别 3d视频左右或上下有对称性 全景最左和最右可以连接起来 所以只取1帧 不考虑加权
耗时减少一个量级
3.在不影响识别结果的情况下 对原始的视频帧图像进行等比例压缩 减少实时的内存占用 更少的像素判断次数 耗时减少
4.每个视频文件 不用每次应用启动都进行识别 可以缓存文件的hash值和视频类型的识别结果 后面启动不需要再识别之前已经识别过的视频文件
只需读取缓存过的识别结果
5.判断左右眼3d改为: 取左右眼各自区域图像的最中间一列像素 判断两列像素是否有连续性 如果连续 即说明图像对称 则为左右眼3d
但很多3d视频左右眼宽度不相等 所以一次判断不是 还需要多判断几次 即右眼区域图像左右各移动两次 每次移动一列 这样就不需要判断取图像中间列
即不存在有黑线和间隙的问题
6.判断上下眼3d改为: 取上下眼各自区域图像的最中间一行像素 判断两行像素是否有连续性 如果连续 即说明图像对称 则为上下眼3d
但很多3d视频上下眼高度不相等 所以一次判断不是 还需要多判断几次 即下眼区域图像上下各移动两次 每次移动一行 这样就不需要判断取图像最中间行
即不存在有黑线和间隙的问题
目前依然存在的问题
1.视频画面很暗 则对判断像素的连续性 有影响
2.经测试 调用系统函数对视频取帧 在乐视X2和S2的安卓6.0以上 存在兼容性问题
还需要做的优化
1.不用系统函数对视频取帧 改用第三方FFMPEG编解码库 并将其中取帧的部分提取出来 提高取帧速度
Q : 如何判断两列(行)像素连续性或相似性
A :
1.依次取出该列(行)的像素颜色值 对颜色值做位运算(要考虑各通道占位ARGB8888、RGB565、RGB444) 取出RGB三通道的值
两列(行)相同索引像素的RGB值分别求均值(两列或行差值的绝对值累加求和/该列或行的像素数) 取RGB三通道中的最大均值
2.同上 再对RGB三通道分别求方差(( 两列或行差值的绝对值-两列或行的均值)的平方的累加求和/该列或行的像素数) 取RGB三通道中的最大方差
3.求出的最大均值或最大方差 若超过阀值 则说明无连续性或低相似性