如何解决iPhone ffmpeg开发人员使用libav从AMR解码为ACC编解码器
| 自iOS 4.3发布以来,对AudioQueue的AMR支持似乎已消失。我无法使用旧方法使用从RSTP服务器接收的音频帧:audioFormat.mFormatID = kAudioFormatAMR;
int err = AudioQueueNewOutput(&audioFormat,MyAudioQueueOutputCallback,self,NULL,kcfRunLoopCommonModes,&audioQueue);
结果,我在最后一个字符串中收到错误。
也许有人知道如何将AMR AVPacket解码为原始缓冲区,并使用LIBAV用AAC或MP3对其进行编码?
我尝试使用
avcodec_decode_audio3
它可以工作,我可以获取原始缓冲区,但是当我尝试使用
avcodec_encode_audio
结果是0
这是我编码缓冲区的方法:
- (AVPacket) encodeRawFrame:(const short *) in_buffer withSize:(unsigned int) in_buf_byte_size
{
AVPacket res;
AVCodec *codec;
AVCodecContext *c= NULL;
int count,out_size,outbuf_size,frame_byte_size;
uint8_t *outbuf;
avcodec_init();
avcodec_register_all();
printf(\"Audio encoding\\n\");
codec = avcodec_find_encoder(CODEC_ID_AAC);
if (!codec) {
fprintf(stderr,\"codec not found\\n\");
return res;
}
c= avcodec_alloc_context();
c->bit_rate = 64000;
c->sample_rate = 24000;
c->channels = 2;
if (avcodec_open(c,codec) < 0)
{
fprintf(stderr,\"Could not open codec\\n\");
}
else
{
frame_byte_size=c->frame_size*2*2;
count = in_buf_byte_size/frame_byte_size;
fprintf(stderr,\"Number of frames: %d\\n\",count);
outbuf_size = AVCODEC_MAX_AUdio_FRAME_SIZE;
outbuf = (uint8_t*) malloc(outbuf_size);
out_size = avcodec_encode_audio(c,outbuf,&in_buffer[frame_byte_size*i]);
if(out_size >= 0)
{
res.size = outbuf_size;
res.data = malloc(outbuf_size);
}
free(outbuf);
}
avcodec_close(c);
av_free(c);
return res;
}
编码后,“ out_size \”始终为0,结果缓冲区为空。
谢谢。
解决方法
因此,我找到了所有解决方案,现在我的媒体播放器课程可以播放RTSP音频和视频。我了解使用AMR解码到AAC并不是一个好主意,因为会占用资源,最好播放RAW缓冲区,您可以使用允许从AMR获取RAW缓冲区的解码方式获得该缓冲区。我有一个很好的示例(实际上,我必须做一些小的重构:)))如何播放RTSP流,如果他们愿意提供电子邮件,我已经准备好与ppl分享:)。另外,我有LIBAV,AMR_NB和AAC编码器的通用二进制文件(armv6,armv7,i386)。
谢谢。
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。