ffmpeg综合应用示例(三)——安卓手机摄像头编码

时间:2023-01-10 15:42:25

本文的示例将实现:读取安卓手机摄像头数据并使用H.264编码格式实时编码保存为flv文件。示例包含了

1、编译适用于安卓平台的ffmpeg库

2、在java中通过JNI使用ffmpeg

3、读取安卓摄像头数据并在后台线程中使用ffmpeg进行编码的基本流程

具有较强的综合性。

编译适用于安卓平台的ffmpeg库

平时我们编译ffmpeg类库都是在x86平台下,而安卓手机属于arm平台,所以要先通过交叉编译的方法在x86平台下编译出可以在arm平台下使用的ffmpeg类库。Google就为我们提供了一套可以再Linux下完成该任务的交叉编译工具链——NDK,下载时可以看到google同时提供了ndk的windows版和linux版,前者可以在windows下通过cygwin(可以理解为一个在windows下模拟linux的工具)使用。我这里使用的是Android-ndk-r10e,在cygwin下使用。ndk的下载安装基本是傻瓜式的,但要注意linux系统对x86和x64是分的很清楚的,不像windows那么随性,此外还需要提醒的是,在下载安装cygwin时,只需要选择binutils , gcc , gcc-mingw , gdb , make这几个组件。安装完成后,在cygwin安装目录下点击cygwin.bat打开命令窗口,输入make -version验证是否安装成功。
做好以上的准备工作之后就可以正式开始ffmpeg源码的编译了。
首先需要修改configure文件,确保类库版本号不会出现在.so后缀名的后面,否则安卓平台无法识别这样的类库
找到下面几句
  1. SLIBNAME_WITH_MAJOR='$(SLIBNAME).$(LIBMAJOR)'
  2. LIB_INSTALL_EXTRA_CMD='$$(RANLIB)"$(LIBDIR)/$(LIBNAME)"'
  3. SLIB_INSTALL_NAME='$(SLIBNAME_WITH_VERSION)'
  4. SLIB_INSTALL_LINKS='$(SLIBNAME_WITH_MAJOR)$(SLIBNAME)'

修改为

  1. SLIBNAME_WITH_MAJOR='$(SLIBPREF)$(FULLNAME)-$(LIBMAJOR)$(SLIBSUF)'
  2. LIB_INSTALL_EXTRA_CMD='$$(RANLIB)"$(LIBDIR)/$(LIBNAME)"'
  3. SLIB_INSTALL_NAME='$(SLIBNAME_WITH_MAJOR)'
  4. SLIB_INSTALL_LINKS='$(SLIBNAME)'

之后进行常规的configure配置,make, make install步骤即可,下面给出一个常规的脚本示例

  1. make clean
  2. export NDK=xxxx/android-ndk-r10e
  3. export PREBUILT=$NDK/toolchains/arm-linux-androideabi-4.8/prebuilt
  4. export PLATFORM=$NDK/platforms/android-8/arch-arm
  5. export PREFIX=../android_ffmpeglib
  6. ./configure --target-os=linux --prefix=$PREFIX \
  7. --enable-cross-compile \
  8. --enable-runtime-cpudetect \
  9. --disable-asm \
  10. --arch=arm \
  11. --cc=$PREBUILT/windows/bin/arm-linux-androideabi-gcc \
  12. --cross-prefix=$PREBUILT/windows/bin/arm-linux-androideabi- \
  13. --disable-stripping \
  14. --nm=$PREBUILT/windows/bin/arm-linux-androideabi-nm \
  15. --sysroot=$PLATFORM \
  16. --enable-gpl --enable-shared --disable-static --enable-small \
  17. --disable-ffprobe --disable-ffplay --disable-ffmpeg --disable-ffserver --disable-debug \
  18. --extra-cflags="-fPIC -DANDROID -D__thumb__ -mthumb -Wfatal-errors -Wno-deprecated -mfloat-abi=softfp -marm -march=armv7-a"
  19. make
  20. make install

成功编译后,可以看到如下类库
ffmpeg综合应用示例(三)——安卓手机摄像头编码

在java中通过JNI使用ffmpeg

JNI即java本地接口,java native interface,它是一个协议,
该协议用来沟通Java代码和外部的本地C/C++代码, 通过该协议 Java代码可以调用外部的本地代码, 外部的C/C++
代码可以调用Java代码。简单来说,就是将一个C语言的方法映射到Java的某个方法上; 
JNI中的一些概念 :
-- native : Java语言中修饰本地方法的修饰符, 被该修饰符修饰的方法没有方法体;
-- Native方法 : 在Java语言中被native关键字修饰的方法是Native方法;
-- JNI层 : Java声明Native方法的部分;
-- JNI函数 : JNIEnv提供的函数, 这些函数在jni.h中进行定义;
-- JNI方法 : Native方法对应的JNI层实现的 C/C++方法, 即在jni目录中实现的那些C语言代码;

具体流程可以参照ndk的sample目录下的hellojni项目,总结起来有如下几个步骤

1、创建常规Android项目
2、声明Native方法,形如public native String stringFromJNI();
3、创建c文件
在工程根目录下创建 jni 目录, 然后创建一个c语言源文件, 在文件中引入 include <jni.h>。c语言方法声明形如
  1. jstring
  2. Java_com_example_hellojni_HelloJni_stringFromJNI( JNIEnv* env,
  3. jobject thiz )

jstring 是 Java语言中的String类型, 方法名格式为 : Java_完整包名类名_方法名();
-- JNIEnv参数 : 代表的是Java环境, 通过这个环境可以调用Java里面的方法;
-- jobject参数 : 调用C语言方法的对象, thiz对象表示当前的对象, 即调用JNI方法所在的类;

4、编写Android.mk文件
就好比常用的makefile,形如
  1. LOCAL_PATH := $(call my-dir)
  2. include $(CLEAR_VARS)
  3. LOCAL_MODULE    := hello-jni
  4. LOCAL_SRC_FILES := hello-jni.c
  5. include $(BUILD_SHARED_LIBRARY)

-- LOCAL_PATH : 代表mk文件所在的目录;
-- include $(CLEAR_VARS) : 编译工具函数, 通过该函数可以进行一些初始化操作;
-- LOCAL_MODULE : 编译后的 .so 后缀文件叫什么名字;
-- LOCAL_SRC_FILES: 指定编译的源文件名称;
-- include $(BUILD_SHARED_LIBRARY) : 告诉编译器需要生成动态库;

5、NDK编译生成动态库
利用上面写好的.mk文件,进入 cygdrive 找到windows目录下对应的文件, 编译完成之后, 会自动生成so文件并放在libs目录下, 之后就可以在Java中调用C语言方法了;
6、java中加载动态库
在Java类中的静态代码块中使用System.LoadLibrary()方法加载编译好的 .so 动态库,形如
  1. static {
  2. System.loadLibrary("hello-jni");
  3. }
需要说明的是,调试JNI程序非常麻烦,无法进入c文件中进行单步调试,只能通过输出一些信息然后利用logcat进行调试,所以也可以先在vs里面把c文件的内容跑一遍简单验证一下。

参照上面的基本流程,具体到利用ffmpeg实现安卓摄像头数据的编码

第一步:我们声明如下四个Native方法
  1. //JNI
  2. //初始化,读取待编码数据的宽和高
  3. public native int initial(int width,int height);
  4. //读取yuv数据进行编码
  5. public native int encode(byte[] yuvimage);
  6. //清空缓存的帧
  7. public native int flush();
  8. //清理
  9. public native int close();

第二步:对应的c文件内容如下,基本就是一个将yuv数据编码为H.264的flv文件的流程,唯一需要注意的就是安卓摄像头拍摄数据的像素格式为NV21,需要转换为YUV420P才能进行编码

  1. /**
  2. * 基于FFmpeg安卓摄像头编码
  3. * FFmpeg Android Camera Encoder
  4. *
  5. * 张晖 Hui Zhang
  6. * zhanghuicuc@gmail.com
  7. * 中国传媒大学/数字电视技术
  8. * Communication University of China / Digital TV Technology
  9. *
  10. *
  11. */
  12. #include <stdio.h>
  13. #include <time.h>
  14. #include "libavcodec/avcodec.h"
  15. #include "libavformat/avformat.h"
  16. #include "libswscale/swscale.h"
  17. #include "libavutil/log.h"
  18. #ifdef ANDROID
  19. #include <jni.h>
  20. #include <android/log.h>
  21. #define LOGE(format, ...)  __android_log_print(ANDROID_LOG_ERROR, "(>_<)", format, ##__VA_ARGS__)
  22. #define LOGI(format, ...)  __android_log_print(ANDROID_LOG_INFO,  "(=_=)", format, ##__VA_ARGS__)
  23. #else
  24. #define LOGE(format, ...)  printf("(>_<) " format "\n", ##__VA_ARGS__)
  25. #define LOGI(format, ...)  printf("(^_^) " format "\n", ##__VA_ARGS__)
  26. #endif
  27. AVFormatContext *ofmt_ctx;
  28. AVStream* video_st;
  29. AVCodecContext* pCodecCtx;
  30. AVCodec* pCodec;
  31. AVPacket enc_pkt;
  32. AVFrame *pFrameYUV;
  33. int framecnt = 0;
  34. int yuv_width;
  35. int yuv_height;
  36. int y_length;
  37. int uv_length;
  38. int64_t start_time;
  39. //Output FFmpeg's av_log()
  40. void custom_log(void *ptr, int level, const char* fmt, va_list vl){
  41. FILE *fp=fopen("/storage/emulated/0/av_log.txt","a+");
  42. if(fp){
  43. vfprintf(fp,fmt,vl);
  44. fflush(fp);
  45. fclose(fp);
  46. }
  47. }
  48. JNIEXPORT jint JNICALL Java_com_zhanghui_test_MainActivity_initial
  49. (JNIEnv *env, jobject obj,jint width,jint height)
  50. {
  51. const char* out_path = "/sdcard/zhanghui/testffmpeg.flv";
  52. yuv_width=width;
  53. yuv_height=height;
  54. y_length=width*height;
  55. uv_length=width*height/4;
  56. //FFmpeg av_log() callback
  57. av_log_set_callback(custom_log);
  58. av_register_all();
  59. //output initialize
  60. avformat_alloc_output_context2(&ofmt_ctx, NULL, "flv", out_path);
  61. //output encoder initialize
  62. pCodec = avcodec_find_encoder(AV_CODEC_ID_H264);
  63. if (!pCodec){
  64. LOGE("Can not find encoder!\n");
  65. return -1;
  66. }
  67. pCodecCtx = avcodec_alloc_context3(pCodec);
  68. pCodecCtx->pix_fmt = PIX_FMT_YUV420P;
  69. pCodecCtx->width = width;
  70. pCodecCtx->height = height;
  71. pCodecCtx->time_base.num = 1;
  72. pCodecCtx->time_base.den = 30;
  73. pCodecCtx->bit_rate = 800000;
  74. pCodecCtx->gop_size = 300;
  75. /* Some formats want stream headers to be separate. */
  76. if (ofmt_ctx->oformat->flags & AVFMT_GLOBALHEADER)
  77. pCodecCtx->flags |= CODEC_FLAG_GLOBAL_HEADER;
  78. //H264 codec param
  79. //pCodecCtx->me_range = 16;
  80. //pCodecCtx->max_qdiff = 4;
  81. //pCodecCtx->qcompress = 0.6;
  82. pCodecCtx->qmin = 10;
  83. pCodecCtx->qmax = 51;
  84. //Optional Param
  85. pCodecCtx->max_b_frames = 3;
  86. // Set H264 preset and tune
  87. AVDictionary *param = 0;
  88. av_dict_set(¶m, "preset", "ultrafast", 0);
  89. av_dict_set(¶m, "tune", "zerolatency", 0);
  90. if (avcodec_open2(pCodecCtx, pCodec, ¶m) < 0){
  91. LOGE("Failed to open encoder!\n");
  92. return -1;
  93. }
  94. //Add a new stream to output,should be called by the user before avformat_write_header() for muxing
  95. video_st = avformat_new_stream(ofmt_ctx, pCodec);
  96. if (video_st == NULL){
  97. return -1;
  98. }
  99. video_st->time_base.num = 1;
  100. video_st->time_base.den = 30;
  101. video_st->codec = pCodecCtx;
  102. //Open output URL,set before avformat_write_header() for muxing
  103. if (avio_open(&ofmt_ctx->pb, out_path, AVIO_FLAG_READ_WRITE) < 0){
  104. LOGE("Failed to open output file!\n");
  105. return -1;
  106. }
  107. //Write File Header
  108. avformat_write_header(ofmt_ctx, NULL);
  109. start_time = av_gettime();
  110. return 0;
  111. }
  112. JNIEXPORT jint JNICALL Java_com_zhanghui_test_MainActivity_encode
  113. (JNIEnv *env, jobject obj, jbyteArray yuv)
  114. {
  115. int ret;
  116. int enc_got_frame=0;
  117. int i=0;
  118. pFrameYUV = avcodec_alloc_frame();
  119. uint8_t *out_buffer = (uint8_t *)av_malloc(avpicture_get_size(PIX_FMT_YUV420P, pCodecCtx->width, pCodecCtx->height));
  120. avpicture_fill((AVPicture *)pFrameYUV, out_buffer, PIX_FMT_YUV420P, pCodecCtx->width, pCodecCtx->height);
  121. //安卓摄像头数据为NV21格式,此处将其转换为YUV420P格式
  122. jbyte* in= (jbyte*)(*env)->GetByteArrayElements(env,yuv,0);
  123. memcpy(pFrameYUV->data[0],in,y_length);
  124. for(i=0;i<uv_length;i++)
  125. {
  126. *(pFrameYUV->data[2]+i)=*(in+y_length+i*2);
  127. *(pFrameYUV->data[1]+i)=*(in+y_length+i*2+1);
  128. }
  129. pFrameYUV->format = AV_PIX_FMT_YUV420P;
  130. pFrameYUV->width = yuv_width;
  131. pFrameYUV->height = yuv_height;
  132. enc_pkt.data = NULL;
  133. enc_pkt.size = 0;
  134. av_init_packet(&enc_pkt);
  135. ret = avcodec_encode_video2(pCodecCtx, &enc_pkt, pFrameYUV, &enc_got_frame);
  136. av_frame_free(&pFrameYUV);
  137. if (enc_got_frame == 1){
  138. LOGI("Succeed to encode frame: %5d\tsize:%5d\n", framecnt, enc_pkt.size);
  139. framecnt++;
  140. enc_pkt.stream_index = video_st->index;
  141. //Write PTS
  142. AVRational time_base = ofmt_ctx->streams[0]->time_base;//{ 1, 1000 };
  143. AVRational r_framerate1 = {60, 2 };//{ 50, 2 };
  144. AVRational time_base_q = { 1, AV_TIME_BASE };
  145. //Duration between 2 frames (us)
  146. int64_t calc_duration = (double)(AV_TIME_BASE)*(1 / av_q2d(r_framerate1));  //内部时间戳
  147. //Parameters
  148. //enc_pkt.pts = (double)(framecnt*calc_duration)*(double)(av_q2d(time_base_q)) / (double)(av_q2d(time_base));
  149. enc_pkt.pts = av_rescale_q(framecnt*calc_duration, time_base_q, time_base);
  150. enc_pkt.dts = enc_pkt.pts;
  151. enc_pkt.duration = av_rescale_q(calc_duration, time_base_q, time_base); //(double)(calc_duration)*(double)(av_q2d(time_base_q)) / (double)(av_q2d(time_base));
  152. enc_pkt.pos = -1;
  153. //Delay
  154. int64_t pts_time = av_rescale_q(enc_pkt.dts, time_base, time_base_q);
  155. int64_t now_time = av_gettime() - start_time;
  156. if (pts_time > now_time)
  157. av_usleep(pts_time - now_time);
  158. ret = av_interleaved_write_frame(ofmt_ctx, &enc_pkt);
  159. av_free_packet(&enc_pkt);
  160. }
  161. return 0;
  162. }
  163. JNIEXPORT jint JNICALL Java_com_zhanghui_test_MainActivity_flush
  164. (JNIEnv *env, jobject obj)
  165. {
  166. int ret;
  167. int got_frame;
  168. AVPacket enc_pkt;
  169. if (!(ofmt_ctx->streams[0]->codec->codec->capabilities &
  170. CODEC_CAP_DELAY))
  171. return 0;
  172. while (1) {
  173. enc_pkt.data = NULL;
  174. enc_pkt.size = 0;
  175. av_init_packet(&enc_pkt);
  176. ret = avcodec_encode_video2(ofmt_ctx->streams[0]->codec, &enc_pkt,
  177. NULL, &got_frame);
  178. if (ret < 0)
  179. break;
  180. if (!got_frame){
  181. ret = 0;
  182. break;
  183. }
  184. LOGI("Flush Encoder: Succeed to encode 1 frame!\tsize:%5d\n", enc_pkt.size);
  185. //Write PTS
  186. AVRational time_base = ofmt_ctx->streams[0]->time_base;//{ 1, 1000 };
  187. AVRational r_framerate1 = { 60, 2 };
  188. AVRational time_base_q = { 1, AV_TIME_BASE };
  189. //Duration between 2 frames (us)
  190. int64_t calc_duration = (double)(AV_TIME_BASE)*(1 / av_q2d(r_framerate1));  //内部时间戳
  191. //Parameters
  192. enc_pkt.pts = av_rescale_q(framecnt*calc_duration, time_base_q, time_base);
  193. enc_pkt.dts = enc_pkt.pts;
  194. enc_pkt.duration = av_rescale_q(calc_duration, time_base_q, time_base);
  195. //转换PTS/DTS(Convert PTS/DTS)
  196. enc_pkt.pos = -1;
  197. framecnt++;
  198. ofmt_ctx->duration = enc_pkt.duration * framecnt;
  199. /* mux encoded frame */
  200. ret = av_interleaved_write_frame(ofmt_ctx, &enc_pkt);
  201. if (ret < 0)
  202. break;
  203. }
  204. //Write file trailer
  205. av_write_trailer(ofmt_ctx);
  206. return 0;
  207. }
  208. JNIEXPORT jint JNICALL Java_com_zhanghui_test_MainActivity_close
  209. (JNIEnv *env, jobject obj)
  210. {
  211. if (video_st)
  212. avcodec_close(video_st->codec);
  213. avio_close(ofmt_ctx->pb);
  214. avformat_free_context(ofmt_ctx);
  215. return 0;
  216. }

第三步:编写Android.mk如下,这里要在jni目录下放入ffmpeg的头文件,就跟平时的调用方法一样

  1. LOCAL_PATH := $(call my-dir)
  2. # FFmpeg library
  3. include $(CLEAR_VARS)
  4. LOCAL_MODULE := avcodec
  5. LOCAL_SRC_FILES := libavcodec-56.so
  6. include $(PREBUILT_SHARED_LIBRARY)
  7. include $(CLEAR_VARS)
  8. LOCAL_MODULE := avdevice
  9. LOCAL_SRC_FILES := libavdevice-56.so
  10. include $(PREBUILT_SHARED_LIBRARY)
  11. include $(CLEAR_VARS)
  12. LOCAL_MODULE := avfilter
  13. LOCAL_SRC_FILES := libavfilter-5.so
  14. include $(PREBUILT_SHARED_LIBRARY)
  15. include $(CLEAR_VARS)
  16. LOCAL_MODULE := avformat
  17. LOCAL_SRC_FILES := libavformat-56.so
  18. include $(PREBUILT_SHARED_LIBRARY)
  19. include $(CLEAR_VARS)
  20. LOCAL_MODULE := avutil
  21. LOCAL_SRC_FILES := libavutil-54.so
  22. include $(PREBUILT_SHARED_LIBRARY)
  23. include $(CLEAR_VARS)
  24. LOCAL_MODULE := postproc
  25. LOCAL_SRC_FILES := libpostproc-53.so
  26. include $(PREBUILT_SHARED_LIBRARY)
  27. include $(CLEAR_VARS)
  28. LOCAL_MODULE := swresample
  29. LOCAL_SRC_FILES := libswresample-1.so
  30. include $(PREBUILT_SHARED_LIBRARY)
  31. include $(CLEAR_VARS)
  32. LOCAL_MODULE := swscale
  33. LOCAL_SRC_FILES := libswscale-3.so
  34. include $(PREBUILT_SHARED_LIBRARY)
  35. # Program
  36. include $(CLEAR_VARS)
  37. LOCAL_MODULE := encode
  38. LOCAL_SRC_FILES :=encode.c
  39. LOCAL_C_INCLUDES += $(LOCAL_PATH)/include
  40. LOCAL_LDLIBS := -llog -lz
  41. LOCAL_SHARED_LIBRARIES := avcodec avdevice avfilter avformat avutil postproc swresample swscale
  42. include $(BUILD_SHARED_LIBRARY)

第四步:使用cygwin切换到当前项目的jni目录下,输入ndk-build进行编译即可,如下

ffmpeg综合应用示例(三)——安卓手机摄像头编码
此时就可以在当前项目的libs目录下看到ffmpeg所有的类库以及我们自己的类库,我这里是libencode.so,如下
ffmpeg综合应用示例(三)——安卓手机摄像头编码
第五步:在java中加载动态库
  1. static{
  2. System.loadLibrary("avutil-54");
  3. System.loadLibrary("swresample-1");
  4. System.loadLibrary("avcodec-56");
  5. System.loadLibrary("avformat-56");
  6. System.loadLibrary("swscale-3");
  7. System.loadLibrary("postproc-53");
  8. System.loadLibrary("avfilter-5");
  9. System.loadLibrary("avdevice-56");
  10. System.loadLibrary("encode");
  11. }

至此,就可以在java中调用我们声明的四个方法了。

java部分获取摄像头数据并编码的流程

简单来说,就是利用Camera的PreviewCallback获得摄像头数据,在通过AsyncTask开启后台线程将摄像头数据进行编码。这里为了避免编码过程占用过多的硬件资源,将编码视频宽和高设置为了640和480,。
这里有两个坑,一是onPreviewFrame方法的arg0参数就是YUV数据了,不要再转换为YuvImage对象了,否则会在头部加上一些多余的信息,导致编码错误,二是用于清空缓存帧的flush方法不能在oncreate主线程中调用,否则会导致程序闪退,目前还不清楚原因,所以这里连同close()方法一起放到了onPause方法中进行调用,在安卓开发方面我还是新手,希望有了解这个问题怎么解决的朋友多多指教。
  1. package com.zhanghui.test;
  2. import java.io.IOException;
  3. import android.annotation.TargetApi;
  4. import android.app.Activity;
  5. import android.content.pm.PackageManager;
  6. import android.hardware.Camera;
  7. import android.os.AsyncTask;
  8. import android.os.Build;
  9. import android.os.Bundle;
  10. import android.util.Log;
  11. import android.view.Menu;
  12. import android.view.MenuItem;
  13. import android.view.SurfaceHolder;
  14. import android.view.SurfaceView;
  15. import android.view.View;
  16. import android.widget.Button;
  17. import android.widget.Toast;
  18. @SuppressWarnings("deprecation")
  19. public class MainActivity extends Activity {
  20. private static final String TAG= "MainActivity";
  21. private Button mTakeButton;
  22. private Camera mCamera;
  23. private SurfaceView mSurfaceView;
  24. private SurfaceHolder mSurfaceHolder;
  25. private boolean isRecording = false;
  26. private class StreamTask extends AsyncTask<Void, Void, Void>{
  27. private byte[] mData;
  28. //构造函数
  29. StreamTask(byte[] data){
  30. this.mData = data;
  31. }
  32. @Override
  33. protected Void doInBackground(Void... params) {
  34. // TODO Auto-generated method stub
  35. if(mData!=null){
  36. Log.i(TAG, "fps: " + mCamera.getParameters().getPreviewFrameRate());
  37. encode(mData);
  38. }
  39. return null;
  40. }
  41. }
  42. private StreamTask mStreamTask;
  43. @Override
  44. protected void onCreate(Bundle savedInstanceState) {
  45. super.onCreate(savedInstanceState);
  46. setContentView(R.layout.activity_main);
  47. final Camera.PreviewCallback mPreviewCallbacx=new Camera.PreviewCallback() {
  48. @Override
  49. public void onPreviewFrame(byte[] arg0, Camera arg1) {
  50. // TODO Auto-generated method stub
  51. if(null != mStreamTask){
  52. switch(mStreamTask.getStatus()){
  53. case RUNNING:
  54. return;
  55. case PENDING:
  56. mStreamTask.cancel(false);
  57. break;
  58. }
  59. }
  60. mStreamTask = new StreamTask(arg0);
  61. mStreamTask.execute((Void)null);
  62. }
  63. };
  64. mTakeButton=(Button)findViewById(R.id.take_button);
  65. PackageManager pm=this.getPackageManager();
  66. boolean hasCamera=pm.hasSystemFeature(PackageManager.FEATURE_CAMERA) ||
  67. pm.hasSystemFeature(PackageManager.FEATURE_CAMERA_FRONT) ||
  68. Build.VERSION.SDK_INT<Build.VERSION_CODES.GINGERBREAD;
  69. if(!hasCamera)
  70. mTakeButton.setEnabled(false);
  71. mTakeButton.setOnClickListener(new View.OnClickListener() {
  72. @Override
  73. public void onClick(View arg0) {
  74. // TODO Auto-generated method stub
  75. if(mCamera!=null)
  76. {
  77. if (isRecording) {
  78. mTakeButton.setText("Start");
  79. mCamera.setPreviewCallback(null);
  80. Toast.makeText(MainActivity.this, "encode done", Toast.LENGTH_SHORT).show();
  81. isRecording = false;
  82. }else {
  83. mTakeButton.setText("Stop");
  84. initial(mCamera.getParameters().getPreviewSize().width,mCamera.getParameters().getPreviewSize().height);
  85. mCamera.setPreviewCallback(mPreviewCallbacx);
  86. isRecording = true;
  87. }
  88. }
  89. }
  90. });
  91. mSurfaceView=(SurfaceView)findViewById(R.id.surfaceView1);
  92. SurfaceHolder holder=mSurfaceView.getHolder();
  93. holder.setType(SurfaceHolder.SURFACE_TYPE_PUSH_BUFFERS);
  94. holder.addCallback(new SurfaceHolder.Callback() {
  95. @Override
  96. public void surfaceDestroyed(SurfaceHolder arg0) {
  97. // TODO Auto-generated method stub
  98. if(mCamera!=null)
  99. {
  100. mCamera.stopPreview();
  101. mSurfaceView = null;
  102. mSurfaceHolder = null;
  103. }
  104. }
  105. @Override
  106. public void surfaceCreated(SurfaceHolder arg0) {
  107. // TODO Auto-generated method stub
  108. try{
  109. if(mCamera!=null){
  110. mCamera.setPreviewDisplay(arg0);
  111. mSurfaceHolder=arg0;
  112. }
  113. }catch(IOException exception){
  114. Log.e(TAG, "Error setting up preview display", exception);
  115. }
  116. }
  117. @Override
  118. public void surfaceChanged(SurfaceHolder arg0, int arg1, int arg2, int arg3) {
  119. // TODO Auto-generated method stub
  120. if(mCamera==null) return;
  121. Camera.Parameters parameters=mCamera.getParameters();
  122. parameters.setPreviewSize(640,480);
  123. parameters.setPictureSize(640,480);
  124. mCamera.setParameters(parameters);
  125. try{
  126. mCamera.startPreview();
  127. mSurfaceHolder=arg0;
  128. }catch(Exception e){
  129. Log.e(TAG, "could not start preview", e);
  130. mCamera.release();
  131. mCamera=null;
  132. }
  133. }
  134. });
  135. }
  136. @TargetApi(9)
  137. @Override
  138. protected void onResume(){
  139. super.onResume();
  140. if(Build.VERSION.SDK_INT>=Build.VERSION_CODES.GINGERBREAD){
  141. mCamera=Camera.open(0);
  142. }else
  143. {
  144. mCamera=Camera.open();
  145. }
  146. }
  147. @Override
  148. protected void onPause(){
  149. super.onPause();
  150. flush();
  151. close();
  152. if(mCamera!=null){
  153. mCamera.release();
  154. mCamera=null;
  155. }
  156. }
  157. @Override
  158. public boolean onCreateOptionsMenu(Menu menu) {
  159. // Inflate the menu; this adds items to the action bar if it is present.
  160. getMenuInflater().inflate(R.menu.main, menu);
  161. return true;
  162. }
  163. @Override
  164. public boolean onOptionsItemSelected(MenuItem item) {
  165. // Handle action bar item clicks here. The action bar will
  166. // automatically handle clicks on the Home/Up button, so long
  167. // as you specify a parent activity in AndroidManifest.xml.
  168. int id = item.getItemId();
  169. if (id == R.id.action_settings) {
  170. return true;
  171. }
  172. return super.onOptionsItemSelected(item);
  173. }
  174. //JNI
  175. public native int initial(int width,int height);
  176. public native int encode(byte[] yuvimage);
  177. public native int flush();
  178. public native int close();
  179. static{
  180. System.loadLibrary("avutil-54");
  181. System.loadLibrary("swresample-1");
  182. System.loadLibrary("avcodec-56");
  183. System.loadLibrary("avformat-56");
  184. System.loadLibrary("swscale-3");
  185. System.loadLibrary("postproc-53");
  186. System.loadLibrary("avfilter-5");
  187. System.loadLibrary("avdevice-56");
  188. System.loadLibrary("encode");
  189. }
  190. }

至此,就完成了全部功能的开发,程序截图如下

转自:  http://blog.csdn.net/nonmarking/article/details/48601317