iOS利用FFmpeg解码音频数据并播放

需求

利用FFmepg解析并解码音频流数据,然后将解码后的音频数据送给Audio Queue以实现播放.


实现原理

利用FFmpeg解析音频数据流, 利用FFmpeg解码音频数据为PCM格式. 利用Audio Queue Player实现音频数据播放.


阅读前提


代码地址 : Audio Decoder

掘金地址 : Audio Decoder

简书地址 : Audio Decoder

博客地址 : Audio Decoder


总体架构

本例以一个苹果原生相机录制的.MOV文件为例, 将该文件使用FFmpeg解析并解码,将解码后的数据放入传输队列中,然后开启audio queue player, 播放器在回调函数中轮循取出队列中的数据实现播放.

简易流程

FFmpeg parse流程

  • 创建format context: avformat_alloc_context
  • 打开文件流: avformat_open_input
  • 寻找流信息: avformat_find_stream_info
  • 获取音视频流的索引值: formatContext->streams[i]->codecpar->codec_type == (isVideoStream ? AVMEDIA_TYPE_VIDEO : AVMEDIA_TYPE_AUDIO)
  • 获取音视频流: m_formatContext->streams[m_audioStreamIndex]
  • 解析音视频数据帧: av_read_frame

FFmpeg解码流程

  • 从parse中的AVFormatContext获取音频流对象AVStream. m_formatContext->streams[m_audioStreamIndex];
  • 获取解码器上下文: formatContext->streams[audioStreamIndex]->codec
  • 获取解码器实例: avcodec_find_decoder(codecContext->codec_id)
  • 打开解码器: avcodec_open2
  • 初始化音频帧: AVFrame *av_frame_alloc(void);
  • 将数据发给解码器: int avcodec_send_packet(AVCodecContext *avctx, const AVPacket *avpkt)
  • 获取解码后的数据: int avcodec_receive_frame(AVCodecContext *avctx, AVFrame *frame);
  • 创建转码器: struct SwrContext *swr_alloc(void);
  • 设置转码器参数: swr_alloc_set_opts
  • 初始化转码器上下文: int swr_init(struct SwrContext *s)
  • 开始转码: int swr_convert(struct SwrContext *s, uint8_t **out, int out_count,const uint8_t **in , int in_count);
  • 获取转码后的data与size.

文件结构

file

快速使用

  • 设置音频格式ASBD

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    AudioStreamBasicDescription audioFormat = {
    .mSampleRate = 48000,
    .mFormatID = kAudioFormatLinearPCM,
    .mChannelsPerFrame = 2,
    .mFormatFlags = kLinearPCMFormatFlagIsSignedInteger | kLinearPCMFormatFlagIsPacked,
    .mBitsPerChannel = 16,
    .mBytesPerPacket = 4,
    .mBytesPerFrame = 4,
    .mFramesPerPacket = 1,
    };
  • 配置播放器

    1
    [[XDXAudioQueuePlayer getInstance] configureAudioPlayerWithAudioFormat:&audioFormat bufferSize:kXDXBufferSize];
  • Parse并解码音频文件数据

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    - (void)startDecode {
    NSString *path = [[NSBundle mainBundle] pathForResource:@"test" ofType:@"MOV"];
    XDXAVParseHandler *parseHandler = [[XDXAVParseHandler alloc] initWithPath:path];
    XDXFFmpegAudioDecoder *decoder = [[XDXFFmpegAudioDecoder alloc] initWithFormatContext:[parseHandler getFormatContext] audioStreamIndex:[parseHandler getAudioStreamIndex]];
    decoder.delegate = self;
    [parseHandler startParseGetAVPackeWithCompletionHandler:^(BOOL isVideoFrame, BOOL isFinish, AVPacket packet) {
    if (isFinish) {
    [decoder stopDecoder];
    return;
    }

    if (!isVideoFrame) {
    [decoder startDecodeAudioDataWithAVPacket:packet];
    }
    }];
    }
  • 获取解码后数据并播放

为了每次能够重新播放,这里需要标记当前是否为解码的第一帧数据,以重新启动播放器. 另一点是使用NSTimer等待音频数据放入队列再开始播放,因为audio queue是驱动播放模式,所以必须等音频数据放入传输队列再开始播放.

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
#pragma mark - Decode Callback
- (void)getDecodeAudioDataByFFmpeg:(void *)data size:(int)size isFirstFrame:(BOOL)isFirstFrame {
if (isFirstFrame) {
dispatch_async(dispatch_get_main_queue(), ^{
// First put 3 frame audio data to work queue then start audio queue to read it to play.
[NSTimer scheduledTimerWithTimeInterval:0.01 repeats:YES block:^(NSTimer * _Nonnull timer) {

XDXCustomQueueProcess *audioBufferQueue = [XDXAudioQueuePlayer getInstance]->_audioBufferQueue;
int size = audioBufferQueue->GetQueueSize(audioBufferQueue->m_work_queue);
if (size > 3) {
dispatch_async(dispatch_get_main_queue(), ^{
[[XDXAudioQueuePlayer getInstance] startAudioPlayer];
});
[timer invalidate];
}
}];
});
}

// Put audio data from audio file into audio data queue
[self addBufferToWorkQueueWithAudioData:data size:size];

// control rate
usleep(16*1000);
}

具体实现

1. 初始化解码器

从Parse模块中可以获取当前文件对应FFmepg的上下文对象AVFormatContext.因此音频流解码器信息可以直接获取.

  • 获取音频流对象

    1
    AVStream *audioStream = m_formatContext->streams[m_audioStreamIndex];
  • 获取解码器上下文对象

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    - (AVCodecContext *)createAudioEncderWithFormatContext:(AVFormatContext *)formatContext stream:(AVStream *)stream audioStreamIndex:(int)audioStreamIndex {
    AVCodecContext *codecContext = formatContext->streams[audioStreamIndex]->codec;
    AVCodec *codec = avcodec_find_decoder(codecContext->codec_id);
    if (!codec) {
    log4cplus_error(kModuleName, "%s: Not find audio codec",__func__);
    return NULL;
    }

    if (avcodec_open2(codecContext, codec, NULL) < 0) {
    log4cplus_error(kModuleName, "%s: Can't open audio codec",__func__);
    return NULL;
    }

    return codecContext;
    }
  • 初始化音频帧

AVFrame 作为解码后原始的音视频数据的容器.AVFrame通常被分配一次然后多次重复(例如,单个AVFrame以保持从解码器接收的帧)。在这种情况下,av_frame_unref()将释放框架所持有的任何引用,并在再次重用之前将其重置为其原始的清理状态。

1
2
3
4
5
6
// Get audio frame
m_audioFrame = av_frame_alloc();
if (!m_audioFrame) {
log4cplus_error(kModuleName, "%s: alloc audio frame failed",__func__);
avcodec_close(m_audioCodecContext);
}

2. 将原始数据发给解码器

调用avcodec_send_packet将压缩数据发送给解码器.最后利用循环接收avcodec_receive_frame解码后的音视频数据.

1
2
3
4
int result = avcodec_send_packet(audioCodecContext, &packet);
if (result < 0) {
log4cplus_error(kModuleName, "%s: Send audio data to decoder failed.",__func__);
}

3. 接收解码后的数据.

1
result = avcodec_receive_frame(audioCodecContext, audioFrame);

4. 将解码后的数据转码为iOS设备可播放的类型

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
 result = avcodec_receive_frame(audioCodecContext, audioFrame);
while (0 == result) {
struct SwrContext *au_convert_ctx = swr_alloc();
au_convert_ctx = swr_alloc_set_opts(au_convert_ctx,
AV_CH_LAYOUT_STEREO,
AV_SAMPLE_FMT_S16,
48000,
audioCodecContext->channel_layout,
audioCodecContext->sample_fmt,
audioCodecContext->sample_rate,
0,
NULL);
swr_init(au_convert_ctx);
int out_linesize;
int out_buffer_size = av_samples_get_buffer_size(&out_linesize,
audioCodecContext->channels,
audioCodecContext->frame_size,
audioCodecContext->sample_fmt,
1);

uint8_t *out_buffer = (uint8_t *)av_malloc(out_buffer_size);
// 解码
swr_convert(au_convert_ctx, &out_buffer, out_linesize, (const uint8_t **)audioFrame->data , audioFrame->nb_samples);
swr_free(&au_convert_ctx);
au_convert_ctx = NULL;
if ([self.delegate respondsToSelector:@selector(getDecodeAudioDataByFFmpeg:size:isFirstFrame:)]) {
[self.delegate getDecodeAudioDataByFFmpeg:out_buffer size:out_linesize isFirstFrame:m_isFirstFrame];
m_isFirstFrame=NO;
}

av_free(out_buffer);
}

if (result != 0) {
log4cplus_error(kModuleName, "%s: Decode finish.",__func__);
}
`
穷则github点星,达可兼济本人
显示 Gitment 评论
0%