微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

OpenCV怎么用

这篇文章主要讲解了“OpenCV怎么用”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“OpenCV怎么用”吧!

有没有想过让蒙娜丽莎跟着你的表情动,来一番亲切的交流?

OpenCV怎么用

Aliaksandr的一阶运动模型(First Order Motion Model)可以实现,但是实现过程非常复杂且繁琐。

一阶运动模型功能强大,可以在未经预训练的数据集上对图像和视频进行特效生成,但代价是安装配置比较繁琐。

能不能简单一点,再简单一点?

印度一位程序员阿南德·帕瓦拉(Anand Pawara)设计了基于OpenCV实现的实时动画特效。

毕竟OpenCV是成名已久的跨平台视觉库,是事实上的计算机视觉领域的标准库。

项目中涉及的人脸识别、动作识别和运动跟踪,均在OpenCV库中原生支持

安装过程

1、安装依赖模块

安装依赖模块:

pip install -r requirements.txt

安装pytorch 1.0.0 :

pip install torch===1.0.0 torchvision===0.2.1 -f https://download.pytorch.org/whl/cu100/torch_stable.html

2、下载配置文件(如果不能下载,文件链接在文末)

gdown —id 1wCzJP1XJNB04vEORZvPjNz6drkXm5AUK

3、运行程序

运行文件 :

python image_animation.py -i path_to_input_file -c path_to_checkpoint

针对摄像头的实时特效生成 :

python .\image_animation.py -i .\Inputs\Monalisa.png -c .\checkpoints\vox-cpk.pth.tar Run application from video file : python image_animation.py -i path_to_input_file -c path_to_checkpoint -v path_to_video_file

针对既有视频的特效生成 :

python .\image_animation.py -i .\Inputs\Monalisa.png -c .\checkpoints\vox-cpk.pth.tar -v .\video_input\test1.mp4

如果你想上手试试,只需要调整相关配置文件即可。

模型分为两种使用模式,一种是较为常规的导入视频常规方法,另外一种就是实时生成视频特效。

但是,请注意,一定要使用pytorch 1.0.0版本,因为更高的版本在后端依赖的一阶模型上存在问题。

按照作者的后续计划,会推出客户端程序,并且会增加假声(deepfake voice)功能

立足OpenCV的优化

阿南德所做的工作是简化现有的一阶运动模型(First Order Motion Model),使用OpenCV对视频进行特效生成

项目的后端支持由OpenCV库完成,避免使用复杂的模型,降低使用门槛。

按照作者观点,使用这个模型只需要对一类数据集进行训练后,便可应用到对其全部事物上去,即具有较好的泛化能力。

不同于原一阶模型的多个数据集测试效果,现在阿南德实时动态特效模型还只在人脸数据集上进行测试,后续后持续增加其他数据集。

这个模型的特点是易用,配置非常简单,基本可以开箱即用,即使是训练自己的数据集也会比较简单。

因为立足于对现有资源进行优化配置,操作简易,功能强大。

当然,简单也会带来问题,比如现在数据集较为单一,针对的主要是人脸数据集。

感谢各位的阅读,以上就是“OpenCV怎么用”的内容了,经过本文的学习后,相信大家对OpenCV怎么用这一问题有了更深刻的体会,具体使用情况还需要大家实践验证。这里是编程之家,小编将为大家推送更多相关知识点的文章,欢迎关注!

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

相关推荐