video-toolbox专题提供video-toolbox的最新资讯内容,帮你更好的了解video-toolbox。
我想使用以下列表创建CMVideoFormatDescriptionRef <ol> <li> VPS </li> <li> SPS </li> <li> PPS </li> <li>前缀SEI </li> <li>
我使用videotoolbox编写了一套用于HEVC的硬件加速支持的编码器和解码器。 在编码器中,我将属性<code
我一直在尝试在Swift中使用<code>CMSampleBuffer</code>对<code>VideoToolBox</code>应用H.264编码,我对Swift还是很陌生
我一直在尝试使用<code>VTCompressionSessionEncodeFrame</code>对某些CMSampleBuffers进行编码,但是当我尝试使用它时
我一直在使用VideoToolBox编码视频数据,但是我无法获取正在运行的<code>VTCompressionSession</code>的回调。
我一直在尝试进行压缩回调,该压缩回调将压缩后的数据发送到流程的其他部分,但是当我放置发送数
我发现不同的Iphone硬件编码器具有将输入RGB转换为YUV的不同矩阵,即在函数OSStatus VTCompressionSessionEncodeFra
我正在使用<code>h264_videotoolbox</code>编码器将图像流编码为h264视频,但是生成的视频比输入慢大约一秒钟
我正在尝试使用<code>AVCaptureSession</code>和<code>AVCaptureScreenInput</code>使用以下代码对整个屏幕(所有监视器
我对视频处理非常陌生,现在我无法在 Swift 中使用 FFmpeg 和 VideoToolbox 解码我的 H.264 RTSP-Stream。 目
在 iPad Pro OS v14.3 上尝试解码帧时,我遇到了与 <a href="https://stackoverflow.com/questions/30676803/videotoolbox-cant-dec
我正在尝试使用 Apple Video Toolbox 和 OpenH264 的组合来让 H264 流媒体应用程序在各种平台上运行。有一个用
因此,虽然我确定我不会为任何人提供足够的信息来修复我的特定代码,但我很想知道的是: <stron
我制作了一个 HEVC (H.265) 基本流,其中包含 alpha(从 Apple VideoToolbox 框架生成),我想从中提取 alpha 通道
我正在使用 Apple 的 VideoToolbox API 来解码 HEVC 流。我正在使用 <code>AVSampleBufferDisplayLayer</code> 层来渲染解
我正在尝试使用 Swift (macOS) 中的 VideoToolbox API 解码原始 H264 流。 在 <code>viewDidLoad()</code> 中,我设
我正在通过网络从另一台设备实时流式传输 H264 视频,并使用 <code>AVSampleBufferDisplayLayer</code> 渲染它以渲
我在 <a href="https://developer.apple.com/videos/play/wwdc2018/601/" rel="nofollow noreferrer">https://developer.apple.com/videos/play/
VTDecompressionSessionCreate 返回错误代码 -12913,但我找不到有关此错误的太多信息。谁能说出可能的原因是