Android中MediaMuxer和MediaCodec用例 - audio+video

2024-02-05 10:32

本文主要是介绍Android中MediaMuxer和MediaCodec用例 - audio+video,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

http://blog.csdn.net/jinzhuojun/article/details/32163149


在Android的多媒体类中,MediaMuxer和MediaCodec算是比较年轻的,它们是JB 4.1和JB 4.3才引入的。前者用于将音频和视频进行混合生成多媒体文件。缺点是目前只能支持一个audio track和一个video track,而且仅支持mp4输出。不过既然是新生事物,相信之后的版本应该会有大的改进。MediaCodec用于将音视频进行压缩编码,它有个比较牛X的地方是可以对Surface内容进行编码,如KK 4.4中屏幕录像功能就是用它实现的。

注意它们和其它一些多媒体相关类的关系和区别:MediaExtractor用于音视频分路,和MediaMuxer正好是反过程。MediaFormat用于描述多媒体数据的格式。MediaRecorder用于录像+压缩编码,生成编码好的文件如mp4, 3gpp,视频主要是用于录制Camera preview。MediaPlayer用于播放压缩编码后的音视频文件。AudioRecord用于录制PCM数据。AudioTrack用于播放PCM数据。PCM即原始音频采样数据,可以用如vlc播放器播放。当然了,通道采样率之类的要自己设,因为原始采样数据是没有文件头的,如:
vlc --demux=rawaud --rawaud-channels 2 --rawaud-samplerate 44100 audio.pcm

回到MediaMuxer和MediaCodec这两个类,它们的参考文档见http://developer.android.com/reference/android/media/MediaMuxer.html和http://developer.android.com/reference/android/media/MediaCodec.html,里边有使用的框架。这个组合可以实现很多功能,比如音视频文件的编辑(结合MediaExtractor),用OpenGL绘制Surface并生成mp4文件,屏幕录像以及类似Camera app里的录像功能(虽然这个用MediaRecorder更合适)等。

这里以一个很无聊的功能为例,就是在一个Surface上画图编码生成视频,同时用MIC录音编码生成音频,然后将音视频混合生成mp4文件。程序本身没什么用,但是示例了MediaMuxer和MediaCodec的基本用法。本程序主要是基于两个测试程序:一个是Grafika中的SoftInputSurfaceActivity和HWEncoderExperiments。它们一个是生成视频,一个生成音频,这里把它们结合一下,同时生成音频和视频。基本框架和流程如下:


首先是录音线程,主要参考HWEncoderExperiments。通过AudioRecord类接收来自麦克风的采样数据,然后丢给Encoder准备编码:

[java]  view plain copy
print ? 在CODE上查看代码片 派生到我的代码片
  1. AudioRecord audio_recorder;  
  2. audio_recorder = new AudioRecord(MediaRecorder.AudioSource.MIC,         
  3.         SAMPLE_RATE, CHANNEL_CONFIG, AUDIO_FORMAT, buffer_size);                          
  4. // ...  
  5. audio_recorder.startRecording();  
  6. while (is_recording) {  
  7.     byte[] this_buffer = new byte[frame_buffer_size];  
  8.     read_result = audio_recorder.read(this_buffer, 0, frame_buffer_size); // read audio raw data  
  9.     // …  
  10.     presentationTimeStamp = System.nanoTime() / 1000;  
  11.     audioEncoder.offerAudioEncoder(this_buffer.clone(), presentationTimeStamp);  // feed to audio encoder  
  12.   
  13. }  
这里也可以设置AudioRecord的回调(通过setRecordPositionUpdateListener())来触发音频数据的读取。offerAudioEncoder()里主要是把audio采样数据送入音频MediaCodec的InputBuffer进行编码:

[java]  view plain copy
print ? 在CODE上查看代码片 派生到我的代码片
  1. ByteBuffer[] inputBuffers = mAudioEncoder.getInputBuffers();  
  2. int inputBufferIndex = mAudioEncoder.dequeueInputBuffer(-1);   
  3. if (inputBufferIndex >= 0) {  
  4.     ByteBuffer inputBuffer = inputBuffers[inputBufferIndex];  
  5.     inputBuffer.clear();  
  6.     inputBuffer.put(this_buffer);  
  7.     ...  
  8.     mAudioEncoder.queueInputBuffer(inputBufferIndex, 0, this_buffer.length, presentationTimeStamp, 0);  
  9. }  
下面,参考Grafika-SoftInputSurfaceActivity,并加入音频处理。主循环大体分四部分:

[java]  view plain copy
print ? 在CODE上查看代码片 派生到我的代码片
  1. try {  
  2.     // Part 1  
  3.     prepareEncoder(outputFile);  
  4.     ...  
  5.     // Part 2  
  6.     for (int i = 0; i < NUM_FRAMES; i++) {  
  7.         generateFrame(i);  
  8.         drainVideoEncoder(false);  
  9.         drainAudioEncoder(false);  
  10.     }  
  11.     // Part 3  
  12.     ...  
  13.     drainVideoEncoder(true);  
  14.     drainAudioEncoder(true);  
  15. }  catch (IOException ioe) {  
  16.     throw new RuntimeException(ioe);  
  17. finally {  
  18.     // Part 4  
  19.     releaseEncoder();  
  20. }  
第1部分是准备工作,除了video的MediaCodec,这里还初始化了audio的MediaCodec:

[java]  view plain copy
print ? 在CODE上查看代码片 派生到我的代码片
  1. MediaFormat audioFormat = new MediaFormat();  
  2. audioFormat.setInteger(MediaFormat.KEY_SAMPLE_RATE, 44100);  
  3. audioFormat.setInteger(MediaFormat.KEY_CHANNEL_COUNT, 1);  
  4. ...          
  5. mAudioEncoder = MediaCodec.createEncoderByType(AUDIO_MIME_TYPE);  
  6. mAudioEncoder.configure(audioFormat, nullnull, MediaCodec.CONFIGURE_FLAG_ENCODE);  
  7. mAudioEncoder.start();  
第2部分进入主循环,app在Surface上直接绘图,由于这个Surface是从MediaCodec中用createInputSurface()申请来的,所以画完后不用显式用queueInputBuffer()交给Encoder。drainVideoEncoder()和drainAudioEncoder()分别将编码好的音视频从buffer中拿出来(通过dequeueOutputBuffer()),然后交由MediaMuxer进行混合(通过writeSampleData())。注意音视频通过PTS(Presentation time stamp,决定了某一帧的音视频数据何时显示或播放)来同步,音频的time stamp需在AudioRecord从MIC采集到数据时获取并放到相应的bufferInfo中,视频由于是在Surface上画,因此直接用dequeueOutputBuffer()出来的bufferInfo中的就行,最后将编码好的数据送去MediaMuxer进行多路混合。

注意这里Muxer要等把audio track和video track都加入了再开始。MediaCodec在一开始调用dequeueOutputBuffer()时会返回一次INFO_OUTPUT_FORMAT_CHANGED消息。我们只需在这里获取该MediaCodec的format,并注册到MediaMuxer里。接着判断当前audio track和video track是否都已就绪,如果是的话就启动Muxer。

总结来说,drainVideoEncoder()的主逻辑大致如下,drainAudioEncoder也是类似的,只是把video的MediaCodec换成audio的MediaCodec即可。
[java]  view plain copy
print ? 在CODE上查看代码片 派生到我的代码片
  1. while(true) {  
  2.     int encoderStatus = mVideoEncoder.dequeueOutputBuffer(mBufferInfo, TIMEOUT_USEC);  
  3.     if (encoderStatus == MediaCodec.INFO_TRY_AGAIN_LATER) {  
  4.         ...  
  5.     } else if (encoderStatus == MediaCodec.INFO_OUTPUT_BUFFERS_CHANGED) {  
  6.         encoderOutputBuffers = mVideoEncoder.getOutputBuffers();  
  7.     } else if (encoderStatus == MediaCodec.INFO_OUTPUT_FORMAT_CHANGED) {  
  8.         MediaFormat newFormat = mAudioEncoder.getOutputFormat();  
  9.         mAudioTrackIndex = mMuxer.addTrack(newFormat);  
  10.         mNumTracksAdded++;  
  11.         if (mNumTracksAdded == TOTAL_NUM_TRACKS) {  
  12.             mMuxer.start();  
  13.         }  
  14.     } else if (encoderStatus < 0) {  
  15.         ...  
  16.     } else {  
  17.         ByteBuffer encodedData = encoderOutputBuffers[encoderStatus];  
  18.         ...  
  19.         if (mBufferInfo.size != 0) {  
  20.             mMuxer.writeSampleData(mVideoTrackIndex, encodedData, mBufferInfo);  
  21.         }  
  22.         mVideoEncoder.releaseOutputBuffer(encoderStatus, false);  
  23.         if ((mBufferInfo.flags & MediaCodec.BUFFER_FLAG_END_OF_STREAM) != 0) {  
  24.             break;          
  25.         }  
  26.     }  
  27.   
  28. }  
第3部分是结束录制,发送EOS信息,这样在drainVideoEncoder()和drainAudioEncoder中就可以根据EOS退出内循环。第4部分为清理工作。把audio和video的MediaCodec,MediaCodec用的Surface及MediaMuxer对象释放。

最后几点注意:
1. 在AndroidManifest.xml里加上录音权限,否则创建AudioRecord对象时铁定失败:
 <uses-permission android:name="android.permission.RECORD_AUDIO"/>
2. 音视频通过PTS同步,两个的单位要一致。
3. MediaMuxer的使用要按照Constructor -> addTrack -> start -> writeSampleData -> stop 的顺序。如果既有音频又有视频,在stop前两个都要writeSampleData()过。

Code references:
Grafika: https://github.com/google/grafika
Bigflake: http://bigflake.com/mediacodec/
HWEncoderExperiments:https://github.com/OnlyInAmerica/HWEncoderExperiments/tree/audioonly/HWEncoderExperiments/src/main/java/net/openwatch/hwencoderexperiments
Android test:http://androidxref.com/4.4.2_r2/xref/cts/tests/tests/media/src/android/media/cts/ 
http://androidxref.com/4.4.2_r2/xref/pdk/apps/TestingCamera2/src/com/android/testingcamera2/CameraRecordingStream.java

这篇关于Android中MediaMuxer和MediaCodec用例 - audio+video的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/680625

相关文章

Android协程高级用法大全

《Android协程高级用法大全》这篇文章给大家介绍Android协程高级用法大全,本文结合实例代码给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友跟随小编一起学习吧... 目录1️⃣ 协程作用域(CoroutineScope)与生命周期绑定Activity/Fragment 中手

Android 缓存日志Logcat导出与分析最佳实践

《Android缓存日志Logcat导出与分析最佳实践》本文全面介绍AndroidLogcat缓存日志的导出与分析方法,涵盖按进程、缓冲区类型及日志级别过滤,自动化工具使用,常见问题解决方案和最佳实... 目录android 缓存日志(Logcat)导出与分析全攻略为什么要导出缓存日志?按需过滤导出1. 按

Android Paging 分页加载库使用实践

《AndroidPaging分页加载库使用实践》AndroidPaging库是Jetpack组件的一部分,它提供了一套完整的解决方案来处理大型数据集的分页加载,本文将深入探讨Paging库... 目录前言一、Paging 库概述二、Paging 3 核心组件1. PagingSource2. Pager3.

Android kotlin中 Channel 和 Flow 的区别和选择使用场景分析

《Androidkotlin中Channel和Flow的区别和选择使用场景分析》Kotlin协程中,Flow是冷数据流,按需触发,适合响应式数据处理;Channel是热数据流,持续发送,支持... 目录一、基本概念界定FlowChannel二、核心特性对比数据生产触发条件生产与消费的关系背压处理机制生命周期

Android ClassLoader加载机制详解

《AndroidClassLoader加载机制详解》Android的ClassLoader负责加载.dex文件,基于双亲委派模型,支持热修复和插件化,需注意类冲突、内存泄漏和兼容性问题,本文给大家介... 目录一、ClassLoader概述1.1 类加载的基本概念1.2 android与Java Class

Android DataBinding 与 MVVM使用详解

《AndroidDataBinding与MVVM使用详解》本文介绍AndroidDataBinding库,其通过绑定UI组件与数据源实现自动更新,支持双向绑定和逻辑运算,减少模板代码,结合MV... 目录一、DataBinding 核心概念二、配置与基础使用1. 启用 DataBinding 2. 基础布局

Android ViewBinding使用流程

《AndroidViewBinding使用流程》AndroidViewBinding是Jetpack组件,替代findViewById,提供类型安全、空安全和编译时检查,代码简洁且性能优化,相比Da... 目录一、核心概念二、ViewBinding优点三、使用流程1. 启用 ViewBinding (模块级

Android学习总结之Java和kotlin区别超详细分析

《Android学习总结之Java和kotlin区别超详细分析》Java和Kotlin都是用于Android开发的编程语言,它们各自具有独特的特点和优势,:本文主要介绍Android学习总结之Ja... 目录一、空安全机制真题 1:Kotlin 如何解决 Java 的 NullPointerExceptio

Android NDK版本迭代与FFmpeg交叉编译完全指南

《AndroidNDK版本迭代与FFmpeg交叉编译完全指南》在Android开发中,使用NDK进行原生代码开发是一项常见需求,特别是当我们需要集成FFmpeg这样的多媒体处理库时,本文将深入分析A... 目录一、android NDK版本迭代分界线二、FFmpeg交叉编译关键注意事项三、完整编译脚本示例四

Android与iOS设备MAC地址生成原理及Java实现详解

《Android与iOS设备MAC地址生成原理及Java实现详解》在无线网络通信中,MAC(MediaAccessControl)地址是设备的唯一网络标识符,本文主要介绍了Android与iOS设备M... 目录引言1. MAC地址基础1.1 MAC地址的组成1.2 MAC地址的分类2. android与I