如何解决使用Core Image和AVFoundation创建幻灯片
我有许多图像会以幻灯片显示的方式显示,并且使用AVPlayer会显示每幅图像1秒钟或更长时间。我希望在以下方面进行改进(在iOS 6左右)。
-
将每个图像缩小为较小的尺寸以进行播放,
-
制作了一个CALayer,按照幻灯片中的时序为每个图像的出现和消失创建了CAAnimation,并将这些动画添加到了CALayer中,
-
创建了一个具有单个黑框的虚拟视频的AVMutableComposition,并将其时间范围扩展到幻灯片的播放时间,
-
创建了一个AVSynchronizedLayer并将此CALayer添加到其中以与播放同步。对于渲染,我创建了一个AVVideoComposition对象,并添加了使用AVVideoComposition的coreAnimationTool属性来将幻灯片显示渲染为视频文件。
现在在iOS 13或更高版本中,当我们在AVVideoComposition中具有customVideoCompositor时,是否可以使用Core Image对其进行改进?具体来说,给定100个存储在文件系统中的图像,每个图像都可以是全分辨率12 MP图像,那么在启动时从URL创建100个CIImage,对每个图像应用下采样变换,然后在运行时在自定义合成器中进行渲染是否正确?我相信每次加载渲染存储在磁盘上的新CIImage时,性能都会受到影响。可能需要在加载时间之前预加载图像,如果用户将播放器搜索到其他时间,则需要取消加载。在不因内存压力或图像加载缓慢而崩溃的情况下,实现此目标的正确/最佳方法是什么?我相信,即使苹果公司在AVPlayer中播放AVMutableComposition,也可能会解决其中一些问题。
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。