最简单的视音频播放示例2:GDI播放YUV, RGB

时间:2022-01-19 00:48:09

前一篇文章对“Simplest Media Play”工程作了概括性介绍。后续几篇文章打算详细介绍每个子工程中的几种技术。在记录Direct3D,OpenGL这两种相对复杂的技术之前,打算先记录一种和它们属于同一层面的的简单的技术——GDI作为热身。

GDI简介

下面这段文字摘自*:

图形设备接口(Graphics Device Interface或Graphical Device Interface,缩写GDI),是微软公司视窗操作系统(Microsoft Windows)的三大核心部件(另外两个是kernel、user)之一。GDI是微软视窗系统表征图形对象及将其传送给诸如显示器、打印机之类输出设备的标准。其他系统也有类似GDI的东西,比如Macintosh的Quartz(传统的QuickDraw),和GTK的GDK/Xlib。
GDI用来完成一些和绘制有关的工作,像直线或曲线的绘制,文字渲染,调色板控制。它最大的好处是它有可以直接访问硬件设备的能力。通过GDI可以非常容易的在不同类型的设备上绘制图形,像显示屏和打印机或类似的显示设备。这些能力是微软Windows系统“所见即所得”程序的核心。
简单的不需要快速图形渲染的游戏可能会用到GDI。但是GDI对一些高级的动画制作无能为力,它缺少显卡中帧的概念,还缺少3D图形硬件光栅化的支持等等。现代的游戏通常使用DirectX和OpenGL而不是GDI,因为这些技术能更好的让程序员利用硬件的特性来加速图形图像的显示。
下面这张图可以很好的表现GDI(以及Direct3D)在系统中的位置。可以看出它们位于应用程序和硬件之间,和Direct3D属于同一类型的东西。

最简单的视音频播放示例2:GDI播放YUV, RGB

我自己在之前做的码流分析程序《VideoEye》中的“单帧详细分析”模块中曾经大量使用了GDI,因为那个功能需要在窗口中绘制帧图像,量化参数,宏块类型,运动矢量等参数。因此对GDI这部分的函数还算熟悉。例如下图是当时画出的“量化参数”,“宏块划分”和“运动矢量”分析结果。图中的背景图像,数字,直线都是通过GDI画上去的。

最简单的视音频播放示例2:GDI播放YUV, RGB

最简单的视音频播放示例2:GDI播放YUV, RGB

最简单的视音频播放示例2:GDI播放YUV, RGB

视频像素数据

视频显示的输入数据一般情况下是非压缩的RGB/YUV数据。像H.264这些压缩码流是不能用于显示的。非压缩的RGB/YUV数据在我们电脑里并不常见,因为它的体积实在是太大了。几秒钟的RGB/YUV数据就有几十MB甚至上百MB大。举个例子,5秒分辨率为1280x720,格式为RGB24的视频数据体积(按照每秒25帧计算)为:

1280*720*3*25*5=345600000B=345.6MB

我们日常生活中比较常见的存储非压缩的RGB像素数据的格式就是BMP。它的文件体(除去文件头)中存储的是RGB数据。很容易发现,BMP文件明显大于JPEG等压缩格式的文件。

本文记录的例子的使用的是纯像素数据,和BMP这种封装过的RGB数据最大的不同在于没有文件头,需要使用特定的播放器,设定参数之后才能正确播放。

PS:纯像素数据播放器推荐以下两个:

YUV Player Deluxe: 只能播放YUV格式,但是确实很好使。

Vooya: 除了支持YUV之外,还支持各种各样的RGB数据,更加强大。

视频显示的要点

用GDI显示像素数据是极其简单的,难度远远低于Direct3D和OpenGL。可以分成两步:

1. 构造一张BMP。

(1) 构造文件头
(2) 读取像素数据

2. 调用函数画上去。

下面分步说明:

1. 构造一张BMP

(1) 构造文件头

构造BMP需要用到结构体BITMAPINFO,该结构体主要用于存储BMP文件头信息:

  1. //BMP Header
  2. BITMAPINFO m_bmphdr={0};
  3. DWORD dwBmpHdr = sizeof(BITMAPINFO);
  4. m_bmphdr.bmiHeader.biBitCount = 24;
  5. m_bmphdr.bmiHeader.biClrImportant = 0;
  6. m_bmphdr.bmiHeader.biSize = dwBmpHdr;
  7. m_bmphdr.bmiHeader.biSizeImage = 0;
  8. m_bmphdr.bmiHeader.biWidth = pixel_w;
  9. //注意BMP在y方向是反着存储的,一次必须设置一个负值,才能使图像正着显示出来
  10. m_bmphdr.bmiHeader.biHeight = -pixel_h;
  11. m_bmphdr.bmiHeader.biXPelsPerMeter = 0;
  12. m_bmphdr.bmiHeader.biYPelsPerMeter = 0;
  13. m_bmphdr.bmiHeader.biClrUsed = 0;
  14. m_bmphdr.bmiHeader.biPlanes = 1;
  15. m_bmphdr.bmiHeader.biCompression = BI_RGB;

从构造BMP这一步我们可以得知:像素格式必须转换为RGB(即不能是YUV)才能使用GDI画上去。因为BMP存储像素是RGB格式的。

(2) 读取像素数据

大端和小端

读取像素数据的时候,又涉及到一个知识点:大端模式和小端模式。

假使我们直接读取rgb24格式的一帧数据(在硬盘中的存储方式为R1|G1|B1,R2|G2|B2,R3|G3|B3),然后显示出来,会发现所有的人物都变成了“阿凡达”(忽然感觉这个比喻还挺形象的):就是人的皮肤都变成了蓝色了。导致这个的原因实际上是系统把“R”当成“B”,而把“B”当成“R”的结果。因此,如果我们如果把“R”和“B”的顺序调换一下的话(“G”保持不变),显示就正常了。
针对上述现象,我们可以得知BMP的RGB24格式的数据实际上是B1|G1|R1,B2|G2|R2这样的顺序存储的。那么问题来了,为什么会这么存储呢?这么存储的话,岂不是把像素格式起名字叫“BGR24”更合适?下面就详细分析一下这个问题。
首先来看一下“RGB24”这种名称的起名规则。它们是按照“高字节->低字节”的方式起名的。即高字节存“R”,低字节存“B”。在系统中,一个像素点的像素值(RGB24则是包含R,G,B三个8Byte的数据;RGBA则包含R,G,B,A四个8Byte的数据)被认为是一个“颜色”变量(官方有正规的结构体定义:tagRGBTRIPLE,tagRGBQUAD。也是类似于int,char这样的变量)。这种长度超过1Byte的变量(int的长度也超过了1Byte)存储的时候就涉及到一个的问题:变量的低字节应该保存在内存的高地址还是低地址?
对于上述问题,有两种存储方法:
大端模式(Big Endian),是指数据的低字节(注意是整个字节)保存在内存的高地址中,而数据的高字节,保存在内存的低地址中。其实这是一个更符合人类习惯的存储方式。
小端模式(Little Endian),是指数据的低字节保存在内存的低地址中,而数据的高字节保存在内存的高地址中。

大部分用户的操作系统(如Windows,FreeBsd,Linux)是Little Endian的。少部分,如MAC OS是Big Endian 的。此外,网络字节序是Big Endian的。BMP文件的存储规定是Little Endian。因此,例如对于3Byte的RGB24变量,其低字节为“B”,而低字节应该保存在内存的低地址中,因此应该保存在最“前面”。所以RGB24格式的像素数据,在BMP文件中的存储方式是B1|G1|R1,B2|G2|R2…

也可以看一下官方的定义:

  1. typedef struct tagRGBTRIPLE {
  2. BYTE rgbtBlue;  // 蓝色分量
  3. BYTE rgbtGreen; // 绿色分量
  4. BYTE rgbtRed;   // 红色分量
  5. } RGBTRIPLE;
  6. typedef struct tagRGBQUAD {
  7. BYTE rgbBlue;   // 蓝色分量
  8. BYTE rgbGreen;  // 绿色分量
  9. BYTE rgbRed;    // 红色分量
  10. BYTE rgbReserved; // 保留字节
  11. } RGBQUAD。

大端和小端的转换

大端和小端的转换其实非常简单,只要交换它们的字节就可以了。下面代码列出了24bit(3字节)的数据的大端和小端之间的转换方法。

  1. //change endian of a pixel (24bit)
  2. void CHANGE_ENDIAN_24(unsigned char *data){
  3. char temp2=data[2];
  4. data[2]=data[0];
  5. data[0]=temp2;
  6. }

下面代码列出了32bit(4字节)的数据的大端和小端之间转换的方法。

  1. //change endian of a pixel (32bit)
  2. void CHANGE_ENDIAN_32(unsigned char *data){
  3. char temp3,temp2;
  4. temp3=data[3];
  5. temp2=data[2];
  6. data[3]=data[0];
  7. data[2]=data[1];
  8. data[0]=temp3;
  9. data[1]=temp2;
  10. }

通过调用上述两个函数,可以实现整张RGB(24bit或者32bit)图片的大端与小端之间的转换。

  1. //Change endian of a picture
  2. void CHANGE_ENDIAN_PIC(unsigned char *image,int w,int h,int bpp){
  3. unsigned char *pixeldata=NULL;
  4. for(int i =0;i<h;i++)
  5. for(int j=0;j<w;j++){
  6. pixeldata=image+(i*w+j)*bpp/8;
  7. if(bpp==32){
  8. CHANGE_ENDIAN_32(pixeldata);
  9. }else if(bpp==24){
  10. CHANGE_ENDIAN_24(pixeldata);
  11. }
  12. }
  13. }

综上所述,需要把输入的rgb24格式的数据(在硬盘中的存储方式为R1|G1|B1,R2|G2|B2,R3|G3|B3),经过大端和小端的转换,然后调用显示的函数,才能正确的显示出来。
PS:当然,如果输入是bgr24格式的数据(在硬盘中的存储方式为B1|G1|R1,B2|G2|R2,B3|G3|R3)的话,是可以不用转换直接正确的显示的。但是要了解到并不是BMP硬性规定了B|G|R这样的存储顺序。其中是有原因的。

显示YUV420P数据

如果输入像素格式是YUV420P的话,需要使用函数CONVERT_YUV420PtoRGB24()先将YUV420P格式数据转换为rgb24的数据。需要注意的是转换完的数据同样要把“大端”转换成“小端”才能正确的在屏幕上显示。CONVERT_YUV420PtoRGB24()代码要稍微复杂些,如下所示。其中提供了两套公式用于YUV420P向rgb24转换,效果略微有些区别,可以自己改改试试。

  1. inline byte CONVERT_ADJUST(double tmp)
  2. {
  3. return (byte)((tmp >= 0 && tmp <= 255)?tmp:(tmp < 0 ? 0 : 255));
  4. }
  5. //YUV420P to RGB24
  6. void CONVERT_YUV420PtoRGB24(unsigned char* yuv_src,unsigned char* rgb_dst,int nWidth,int nHeight)
  7. {
  8. unsigned char *tmpbuf=(unsigned char *)malloc(nWidth*nHeight*3);
  9. unsigned char Y,U,V,R,G,B;
  10. unsigned char* y_planar,*u_planar,*v_planar;
  11. int rgb_width , u_width;
  12. rgb_width = nWidth * 3;
  13. u_width = (nWidth >> 1);
  14. int ypSize = nWidth * nHeight;
  15. int upSize = (ypSize>>2);
  16. int offSet = 0;
  17. y_planar = yuv_src;
  18. u_planar = yuv_src + ypSize;
  19. v_planar = u_planar + upSize;
  20. for(int i = 0; i < nHeight; i++)
  21. {
  22. for(int j = 0; j < nWidth; j ++)
  23. {
  24. // Get the Y value from the y planar
  25. Y = *(y_planar + nWidth * i + j);
  26. // Get the V value from the u planar
  27. offSet = (i>>1) * (u_width) + (j>>1);
  28. V = *(u_planar + offSet);
  29. // Get the U value from the v planar
  30. U = *(v_planar + offSet);
  31. // Cacular the R,G,B values
  32. // Method 1
  33. R = CONVERT_ADJUST((Y + (1.4075 * (V - 128))));
  34. G = CONVERT_ADJUST((Y - (0.3455 * (U - 128) - 0.7169 * (V - 128))));
  35. B = CONVERT_ADJUST((Y + (1.7790 * (U - 128))));
  36. /*
  37. // The following formulas are from MicroSoft' MSDN
  38. int C,D,E;
  39. // Method 2
  40. C = Y - 16;
  41. D = U - 128;
  42. E = V - 128;
  43. R = CONVERT_ADJUST(( 298 * C + 409 * E + 128) >> 8);
  44. G = CONVERT_ADJUST(( 298 * C - 100 * D - 208 * E + 128) >> 8);
  45. B = CONVERT_ADJUST(( 298 * C + 516 * D + 128) >> 8);
  46. R = ((R - 128) * .6 + 128 )>255?255:(R - 128) * .6 + 128;
  47. G = ((G - 128) * .6 + 128 )>255?255:(G - 128) * .6 + 128;
  48. B = ((B - 128) * .6 + 128 )>255?255:(B - 128) * .6 + 128;
  49. */
  50. offSet = rgb_width * i + j * 3;
  51. rgb_dst[offSet] = B;
  52. rgb_dst[offSet + 1] = G;
  53. rgb_dst[offSet + 2] = R;
  54. }
  55. }
  56. free(tmpbuf);
  57. }

2. 调用函数画上去。

最关键的绘图函数只有一个:StretchDIBits()。该函数将矩形区域内像素数据拷贝到指定的目标矩形中。如果目标矩形与源矩形大小不一样,那么函数将会对颜色数据的行和列进行拉伸或压缩,以与目标矩形匹配。

StretchDIBits()这个函数的参数实在是太多了一共12个。它的原型如下:

  1. int StretchDIBits(HDC hdc, int XDest , int YDest , int nDestWidth, int nDestHeight, int XSrc, int Ysrc, int nSrcWidth, int nSrcHeight, CONST VOID *lpBits, CONST BITMAPINFO * lpBitsInfo, UINT iUsage, DWORD dwRop);

它的参数的意义:

hdc:指向目标设备环境的句柄。
XDest:指定目标矩形左上角位置的X轴坐标,按逻辑单位来表示坐标。
YDest:指定目标矩形左上角的Y轴坐标,按逻辑单位表示坐标。
nDestWidth:指定目标矩形的宽度。
nDestHeight:指定目标矩形的高度。
XSrc:指定DIB中源矩形(左上角)的X轴坐标,坐标以像素点表示。
YSrc:指定DIB中源矩形(左上角)的Y轴坐标,坐标以像素点表示。
nSrcWidth:按像素点指定DIB中源矩形的宽度。
nSrcHeight:按像素点指定DIB中源矩形的高度。
lpBits:指向DIB位的指针,这些位的值按字节类型数组存储,有关更多的信息,参考下面的备注一节。
lpBitsInfo:指向BITMAPINFO结构的指针,该结构包含有关DIB方面的信息。
iUsage:表示是否提供了BITMAPINFO结构中的成员bmiColors,如果提供了,那么该bmiColors是否包含了明确的RGB值或索引。参数iUsage必须取下列值,这些值的含义如下:
DIB_PAL_COLORS:表示该数组包含对源设备环境的逻辑调色板进行索引的16位索引值。
DIB_RGB_COLORS:表示该颜色表包含原义的RGB值。
dwRop:指定源像素点、目标设备环境的当前刷子和目标像素点是如何组合形成新的图像。

返回值:如果函数执行成功,那么返回值是拷贝的扫描线数目,如果函数执行失败,那么返回值是GDI_ERROR。

别看StretchDIBits()那个函数看似很复杂,实际上我们只需要指定下面4个信息:源矩形,目标矩形,BMP文件头,BMP文件数据。参考代码如下。

  1. //将RGB数据画在控件上
  2. int nResult = StretchDIBits(hdc,
  3. 0,0,
  4. screen_w,screen_h,
  5. 0, 0,
  6. pixel_w, pixel_h,
  7. raw_buffer,
  8. &m_bmphdr,
  9. DIB_RGB_COLORS,
  10. SRCCOPY);

最后补充一句,在画图之前首先要获取目标窗口的HDC(Handle of Device Context,设备上下文句柄)。在画图完成之后要释放HDC。

  1. HDC hdc=GetDC(hwnd);
  2. //画图…
  3. ReleaseDC(hwnd,hdc);

其他要点

本程序使用的是Win32的API创建的窗口。但注意这个并不是MFC应用程序的窗口。MFC代码量太大,并不适宜用来做教程。因此使用Win32的API创建窗口。程序的入口函数是WinMain(),其中调用了CreateWindow()创建了显示视频的窗口。此外,程序中的消息循环使用的是PeekMessage()而不是GetMessage()。GetMessage()获取消息后,将消息从系统中移除,当系统无消息时,会等待下一条消息,是阻塞函数。而函数PeekMesssge()是以查看的方式从系统中获取消息,可以不将消息从系统中移除(相当于“偷看”消息),是非阻塞函数;当系统无消息时,返回FALSE,继续执行后续代码。使用PeekMessage()的好处是可以保证每隔40ms可以显示下一帧画面。

源代码

下面贴上GDI显示YUV/RGB的完整源代码

  1. /**
  2. * 最简单的GDI播放视频的例子(GDI播放RGB/YUV)
  3. * Simplest Video Play GDI (GDI play RGB/YUV)
  4. *
  5. * 雷霄骅 Lei Xiaohua
  6. * leixiaohua1020@126.com
  7. * 中国传媒大学/数字电视技术
  8. * Communication University of China / Digital TV Technology
  9. * http://blog.csdn.net/leixiaohua1020
  10. *
  11. * 本程序使用GDI播放RGB/YUV视频像素数据。GDI实际上只能直接播放RGB数据。
  12. * 因此如果输入数据为YUV420P的话,需要先转换为RGB数据之后再进行播放。
  13. *
  14. * 函数调用步骤如下:
  15. * GetDC():获得显示设备的句柄。
  16. * 像素数据格式的转换(如果需要的话)
  17. * 设置BMP文件头...
  18. * StretchDIBits():指定BMP文件头,以及像素数据,绘制。
  19. * ReleaseDC():释放显示设备的句柄。
  20. *
  21. * 在该示例程序中,包含了像素转换的几个工具函数,以及“大端”,
  22. * “小端”(字节顺序)相互转换的函数。
  23. *
  24. * This software plays RGB/YUV raw video data using GDI.
  25. * In fact GDI only can draw RGB data. So If input data is
  26. * YUV420P, it need to be convert to RGB first.
  27. * It's the simplest GDI tutorial (About video playback).
  28. *
  29. * The process is shown as follows:
  30. *
  31. * GetDC():retrieves a handle to a device context (DC).
  32. * Convert pixel data format(if needed).
  33. * Set BMP Header...
  34. * StretchDIBits():Set pixel data and BMP data and begin to draw.
  35. * ReleaseDC():release the handle.
  36. *
  37. * In this program there are some functions about conversion
  38. * between pixel format and conversion between "Big Endian" and
  39. * "Little Endian".
  40. */
  41. #include <stdio.h>
  42. #include <tchar.h>
  43. #include <Windows.h>
  44. //set '1' to choose a type of file to play
  45. #define LOAD_BGRA    0
  46. #define LOAD_RGB24   0
  47. #define LOAD_BGR24   0
  48. #define LOAD_YUV420P 1
  49. //Width, Height
  50. const int screen_w=500,screen_h=500;
  51. const int pixel_w=320,pixel_h=180;
  52. //Bit per Pixel
  53. #if LOAD_BGRA
  54. const int bpp=32;
  55. #elif LOAD_RGB24|LOAD_BGR24
  56. const int bpp=24;
  57. #elif LOAD_YUV420P
  58. const int bpp=12;
  59. #endif
  60. FILE *fp=NULL;
  61. //Storage frame data
  62. unsigned char buffer[pixel_w*pixel_h*bpp/8];
  63. unsigned char buffer_convert[pixel_w*pixel_h*3];
  64. //Not Efficient, Just an example
  65. //change endian of a pixel (32bit)
  66. void CHANGE_ENDIAN_32(unsigned char *data){
  67. char temp3,temp2;
  68. temp3=data[3];
  69. temp2=data[2];
  70. data[3]=data[0];
  71. data[2]=data[1];
  72. data[0]=temp3;
  73. data[1]=temp2;
  74. }
  75. //change endian of a pixel (24bit)
  76. void CHANGE_ENDIAN_24(unsigned char *data){
  77. char temp2=data[2];
  78. data[2]=data[0];
  79. data[0]=temp2;
  80. }
  81. //RGBA to RGB24 (or BGRA to BGR24)
  82. void CONVERT_RGBA32toRGB24(unsigned char *image,int w,int h){
  83. for(int i =0;i<h;i++)
  84. for(int j=0;j<w;j++){
  85. memcpy(image+(i*w+j)*3,image+(i*w+j)*4,3);
  86. }
  87. }
  88. //RGB24 to BGR24
  89. void CONVERT_RGB24toBGR24(unsigned char *image,int w,int h){
  90. for(int i =0;i<h;i++)
  91. for(int j=0;j<w;j++){
  92. char temp2;
  93. temp2=image[(i*w+j)*3+2];
  94. image[(i*w+j)*3+2]=image[(i*w+j)*3+0];
  95. image[(i*w+j)*3+0]=temp2;
  96. }
  97. }
  98. //Change endian of a picture
  99. void CHANGE_ENDIAN_PIC(unsigned char *image,int w,int h,int bpp){
  100. unsigned char *pixeldata=NULL;
  101. for(int i =0;i<h;i++)
  102. for(int j=0;j<w;j++){
  103. pixeldata=image+(i*w+j)*bpp/8;
  104. if(bpp==32){
  105. CHANGE_ENDIAN_32(pixeldata);
  106. }else if(bpp==24){
  107. CHANGE_ENDIAN_24(pixeldata);
  108. }
  109. }
  110. }
  111. inline unsigned char CONVERT_ADJUST(double tmp)
  112. {
  113. return (unsigned char)((tmp >= 0 && tmp <= 255)?tmp:(tmp < 0 ? 0 : 255));
  114. }
  115. //YUV420P to RGB24
  116. void CONVERT_YUV420PtoRGB24(unsigned char* yuv_src,unsigned char* rgb_dst,int nWidth,int nHeight)
  117. {
  118. unsigned char *tmpbuf=(unsigned char *)malloc(nWidth*nHeight*3);
  119. unsigned char Y,U,V,R,G,B;
  120. unsigned char* y_planar,*u_planar,*v_planar;
  121. int rgb_width , u_width;
  122. rgb_width = nWidth * 3;
  123. u_width = (nWidth >> 1);
  124. int ypSize = nWidth * nHeight;
  125. int upSize = (ypSize>>2);
  126. int offSet = 0;
  127. y_planar = yuv_src;
  128. u_planar = yuv_src + ypSize;
  129. v_planar = u_planar + upSize;
  130. for(int i = 0; i < nHeight; i++)
  131. {
  132. for(int j = 0; j < nWidth; j ++)
  133. {
  134. // Get the Y value from the y planar
  135. Y = *(y_planar + nWidth * i + j);
  136. // Get the V value from the u planar
  137. offSet = (i>>1) * (u_width) + (j>>1);
  138. V = *(u_planar + offSet);
  139. // Get the U value from the v planar
  140. U = *(v_planar + offSet);
  141. // Cacular the R,G,B values
  142. // Method 1
  143. R = CONVERT_ADJUST((Y + (1.4075 * (V - 128))));
  144. G = CONVERT_ADJUST((Y - (0.3455 * (U - 128) - 0.7169 * (V - 128))));
  145. B = CONVERT_ADJUST((Y + (1.7790 * (U - 128))));
  146. /*
  147. // The following formulas are from MicroSoft' MSDN
  148. int C,D,E;
  149. // Method 2
  150. C = Y - 16;
  151. D = U - 128;
  152. E = V - 128;
  153. R = CONVERT_ADJUST(( 298 * C + 409 * E + 128) >> 8);
  154. G = CONVERT_ADJUST(( 298 * C - 100 * D - 208 * E + 128) >> 8);
  155. B = CONVERT_ADJUST(( 298 * C + 516 * D + 128) >> 8);
  156. R = ((R - 128) * .6 + 128 )>255?255:(R - 128) * .6 + 128;
  157. G = ((G - 128) * .6 + 128 )>255?255:(G - 128) * .6 + 128;
  158. B = ((B - 128) * .6 + 128 )>255?255:(B - 128) * .6 + 128;
  159. */
  160. offSet = rgb_width * i + j * 3;
  161. rgb_dst[offSet] = B;
  162. rgb_dst[offSet + 1] = G;
  163. rgb_dst[offSet + 2] = R;
  164. }
  165. }
  166. free(tmpbuf);
  167. }
  168. bool Render(HWND hwnd)
  169. {
  170. //Read Pixel Data
  171. if (fread(buffer, 1, pixel_w*pixel_h*bpp/8, fp) != pixel_w*pixel_h*bpp/8){
  172. // Loop
  173. fseek(fp, 0, SEEK_SET);
  174. fread(buffer, 1, pixel_w*pixel_h*bpp/8, fp);
  175. }
  176. HDC hdc=GetDC(hwnd);
  177. //Note:
  178. //Big Endian or Small Endian?
  179. //ARGB order:high bit -> low bit.
  180. //ARGB Format Big Endian (low address save high MSB, here is A) in memory : A|R|G|B
  181. //ARGB Format Little Endian (low address save low MSB, here is B) in memory : B|G|R|A
  182. //Microsoft Windows is Little Endian
  183. //So we must change the order
  184. #if LOAD_BGRA
  185. CONVERT_RGBA32toRGB24(buffer,pixel_w,pixel_h);
  186. //we don't need to change endian
  187. //Because input BGR24 pixel data(B|G|R) is same as RGB in Little Endian (B|G|R)
  188. #elif LOAD_RGB24
  189. //Change to Little Endian
  190. CHANGE_ENDIAN_PIC(buffer,pixel_w,pixel_h,24);
  191. #elif LOAD_BGR24
  192. //In fact we don't need to do anything.
  193. //Because input BGR24 pixel data(B|G|R) is same as RGB in Little Endian (B|G|R)
  194. //CONVERT_RGB24toBGR24(buffer,pixel_w,pixel_h);
  195. //CHANGE_ENDIAN_PIC(buffer,pixel_w,pixel_h,24);
  196. #elif LOAD_YUV420P
  197. //YUV Need to Convert to RGB first
  198. //YUV420P to RGB24
  199. CONVERT_YUV420PtoRGB24(buffer,buffer_convert,pixel_w,pixel_h);
  200. //Change to Little Endian
  201. CHANGE_ENDIAN_PIC(buffer_convert,pixel_w,pixel_h,24);
  202. #endif
  203. //BMP Header
  204. BITMAPINFO m_bmphdr={0};
  205. DWORD dwBmpHdr = sizeof(BITMAPINFO);
  206. //24bit
  207. m_bmphdr.bmiHeader.biBitCount = 24;
  208. m_bmphdr.bmiHeader.biClrImportant = 0;
  209. m_bmphdr.bmiHeader.biSize = dwBmpHdr;
  210. m_bmphdr.bmiHeader.biSizeImage = 0;
  211. m_bmphdr.bmiHeader.biWidth = pixel_w;
  212. //Notice: BMP storage pixel data in opposite direction of Y-axis (from bottom to top).
  213. //So we must set reverse biHeight to show image correctly.
  214. m_bmphdr.bmiHeader.biHeight = -pixel_h;
  215. m_bmphdr.bmiHeader.biXPelsPerMeter = 0;
  216. m_bmphdr.bmiHeader.biYPelsPerMeter = 0;
  217. m_bmphdr.bmiHeader.biClrUsed = 0;
  218. m_bmphdr.bmiHeader.biPlanes = 1;
  219. m_bmphdr.bmiHeader.biCompression = BI_RGB;
  220. //Draw data
  221. #if LOAD_YUV420P
  222. //YUV420P data convert to another buffer
  223. int nResult = StretchDIBits(hdc,
  224. 0,0,
  225. screen_w,screen_h,
  226. 0, 0,
  227. pixel_w, pixel_h,
  228. buffer_convert,
  229. &m_bmphdr,
  230. DIB_RGB_COLORS,
  231. SRCCOPY);
  232. #else
  233. //Draw data
  234. int nResult = StretchDIBits(hdc,
  235. 0,0,
  236. screen_w,screen_h,
  237. 0, 0,
  238. pixel_w, pixel_h,
  239. buffer,
  240. &m_bmphdr,
  241. DIB_RGB_COLORS,
  242. SRCCOPY);
  243. #endif
  244. ReleaseDC(hwnd,hdc);
  245. return true;
  246. }
  247. LRESULT WINAPI MyWndProc(HWND hwnd, UINT msg, WPARAM wparma, LPARAM lparam)
  248. {
  249. switch(msg){
  250. case WM_DESTROY:
  251. PostQuitMessage(0);
  252. return 0;
  253. }
  254. return DefWindowProc(hwnd, msg, wparma, lparam);
  255. }
  256. int WINAPI WinMain( __in HINSTANCE hInstance, __in_opt HINSTANCE hPrevInstance, __in LPSTR lpCmdLine, __in int nShowCmd )
  257. {
  258. WNDCLASSEX wc;
  259. ZeroMemory(&wc, sizeof(wc));
  260. wc.cbSize = sizeof(wc);
  261. wc.hbrBackground = (HBRUSH)(COLOR_WINDOW + 1);
  262. wc.lpfnWndProc = (WNDPROC)MyWndProc;
  263. wc.lpszClassName = _T("GDI");
  264. wc.style = CS_HREDRAW | CS_VREDRAW;
  265. RegisterClassEx(&wc);
  266. HWND hwnd = NULL;
  267. hwnd = CreateWindow(_T("GDI"), _T("Simplest Video Play GDI"), WS_OVERLAPPEDWINDOW, 100, 100, 500, 500, NULL, NULL, hInstance, NULL);
  268. if (hwnd==NULL){
  269. return -1;
  270. }
  271. ShowWindow(hwnd, nShowCmd);
  272. UpdateWindow(hwnd);
  273. #if LOAD_BGRA
  274. fp=fopen("../test_bgra_320x180.rgb","rb+");
  275. #elif LOAD_RGB24
  276. fp=fopen("../test_rgb24_320x180.rgb","rb+");
  277. #elif LOAD_BGR24
  278. fp=fopen("../test_bgr24_320x180.rgb","rb+");
  279. #elif LOAD_YUV420P
  280. fp=fopen("../test_yuv420p_320x180.yuv","rb+");
  281. #endif
  282. if(fp==NULL){
  283. printf("Cannot open this file.\n");
  284. return -1;
  285. }
  286. MSG msg;
  287. ZeroMemory(&msg, sizeof(msg));
  288. while (msg.message != WM_QUIT){
  289. //PeekMessage() is not same as GetMessage
  290. if (PeekMessage(&msg, NULL, 0, 0, PM_REMOVE)){
  291. TranslateMessage(&msg);
  292. DispatchMessage(&msg);
  293. }
  294. else{
  295. Sleep(40);
  296. Render(hwnd);
  297. }
  298. }
  299. UnregisterClass(_T("GDI"), hInstance);
  300. return 0;
  301. }

代码注意事项

1.可以通过设置定义在文件开始出的宏,决定读取哪个格式的像素数据(bgra,rgb24,bgr24,yuv420p)。

  1. //set '1' to choose a type of file to play
  2. #define LOAD_BGRA    0
  3. #define LOAD_RGB24   0
  4. #define LOAD_BGR24   0
  5. #define LOAD_YUV420P 1

2.窗口的宽高为screen_w,screen_h。像素数据的宽高为pixel_w,pixel_h。它们的定义如下。

  1. //Width, Height
  2. const int screen_w=500,screen_h=500;
  3. const int pixel_w=320,pixel_h=180;

程序流程图

程序的流程图可以简单概括如下所示。

最简单的视音频播放示例2:GDI播放YUV, RGB

结果

不论选择读取哪个格式的文件,程序的最终输出效果都是一样的,如下图所示。

最简单的视音频播放示例2:GDI播放YUV, RGB

下载

代码位于“Simplest Media Play”中

SourceForge项目地址:https://sourceforge.net/projects/simplestmediaplay/

CSDN下载地址:http://download.csdn.net/detail/leixiaohua1020/8054395

上述工程包含了使用各种API(Direct3D,OpenGL,GDI,DirectSound,SDL2)播放多媒体例子。其中音频输入为PCM采样数据。输出至系统的声卡播放出来。视频输入为YUV/RGB像素数据。输出至显示器上的一个窗口播放出来。

通过本工程的代码初学者可以快速学习使用这几个API播放视频和音频的技术。

一共包括了如下几个子工程:

simplest_audio_play_directsound:  使用DirectSound播放PCM音频采样数据。
simplest_audio_play_sdl2:  使用SDL2播放PCM音频采样数据。
simplest_video_play_direct3d:  使用Direct3D的Surface播放RGB/YUV视频像素数据。
simplest_video_play_direct3d_texture: 使用Direct3D的Texture播放RGB视频像素数据。
simplest_video_play_gdi:  使用GDI播放RGB/YUV视频像素数据。
simplest_video_play_opengl:  使用OpenGL播放RGB/YUV视频像素数据。
simplest_video_play_opengl_texture: 使用OpenGL的Texture播放YUV视频像素数据。
simplest_video_play_sdl2:  使用SDL2播放RGB/YUV视频像素数据。

from:http://blog.csdn.net/leixiaohua1020/article/details/40266503

最简单的视音频播放示例2:GDI播放YUV, RGB的更多相关文章

  1. 最简单的视音频播放示例7:SDL2播放RGB&sol;YUV

    本文记录SDL播放视频的技术.在这里使用的版本是SDL2.实际上SDL本身并不提供视音频播放的功能,它只是封装了视音频播放的底层API.在Windows平台下,SDL封装了Direct3D这类的API ...

  2. 最简单的视音频播放示例6:OpenGL播放YUV420P(通过Texture,使用Shader)

    本文记录OpenGL播放视频的技术.上一篇文章中,介绍了一种简单的使用OpenGL显示视频的方式.但是那还不是OpenGL显示视频技术的精髓.和Direct3D一样,OpenGL更好的显示视频的方式也 ...

  3. 最简单的视音频播放示例5:OpenGL播放RGB&sol;YUV

    本文记录OpenGL播放视频的技术.OpenGL是一个和Direct3D同一层面的技术.相比于Direct3D,OpenGL具有跨平台的优势.尽管在游戏领域,DirectX的影响力已渐渐超越OpenG ...

  4. 最简单的视音频播放示例9:SDL2播放PCM

    本文记录SDL播放音频的技术.在这里使用的版本是SDL2.实际上SDL本身并不提供视音频播放的功能,它只是封装了视音频播放的底层API.在Windows平台下,SDL封装了Direct3D这类的API ...

  5. 最简单的视音频播放示例8:DirectSound播放PCM

    本文记录DirectSound播放音频的技术.DirectSound是Windows下最常见的音频播放技术.目前大部分的音频播放应用都是通过DirectSound来播放的.本文记录一个使用Direct ...

  6. 最简单的视音频播放示例4:Direct3D播放RGB(通过Texture)

    本文接着上一篇文章继续记录Direct3D(简称D3D)播放视频的技术.上一篇文章中已经记录了使用Direct3D中的Surface渲染视频的技术.本文记录一种稍微复杂但是更加灵活的渲染视频的方式:使 ...

  7. 最简单的视音频播放示例3:Direct3D播放YUV,RGB(通过Surface)

    上一篇文章记录了GDI播放视频的技术.打算接下来写两篇文章记录Direct3D(简称D3D)播放视频的技术.Direct3D应该Windows下最常用的播放视频的技术.实际上视频播放只是Direct3 ...

  8. 最简单的视音频播放演示样例4:Direct3D播放RGB(通过Texture)

    ===================================================== 最简单的视音频播放演示样例系列文章列表: 最简单的视音频播放演示样例1:总述 最简单的视音频 ...

  9. 最简单的视音频播放演示样例5:OpenGL播放RGB&sol;YUV

    ===================================================== 最简单的视音频播放演示样例系列文章列表: 最简单的视音频播放演示样例1:总述 最简单的视音频 ...

随机推荐

  1. ABP理论学习之数据传输对象&lpar;DTO&rpar;

    返回总目录 本篇目录 为何需要DTO 领域层抽象 数据隐藏 序列化和懒加载问题 DTO惯例和验证 DTO和实体的自动映射 使用特性和扩展方法进行映射 帮助接口 DTO用于应用层和 展现层间的数据传输. ...

  2. Java中常见数据结构:list与map -底层如何实现

    1:集合 2 Collection(单列集合) 3 List(有序,可重复) 4 ArrayList 5 底层数据结构是数组,查询快,增删慢 6 线程不安全,效率高 7 Vector 8 底层数据结构 ...

  3. iOS开发——高级技术精选&amp&semi;底层开发之越狱开发第一篇

    底层开发之越狱开发第一篇 做越狱开发也有一些时间了,有很多东西想总结一下,希望给他人一些借鉴,也是自己对过去开发经历的一些总结.个人不推荐使用盗版,这里主要以技术介绍为主. 这个系列里面主要介绍怎样进 ...

  4. Panopticon跨平台的逆向工程反汇编工具

    http://www.freebuf.com/sectool/104045.html Panopticon 使用GPLv3授权许可,其免费. 项目文档:https://panopticon.re. 问 ...

  5. 【原】web服务器占有量统计等 web网站

    根据W3Techs的统计,目前世界排名(根据Alexa)前100万的网站中 1. https://w3techs.com/ nginx 中文站 2. http://www.nginx.cn/doc/

  6. Robot Framework的环境搭建

    1.Robot framework的安装 作用:web自动化测试框架. RF框架是基于python 的,所以一定要有python环境.网上可以自行查找. 下载地址:https://pypi.pytho ...

  7. Clojure——学习迷宫生成

    背景 初学clojure,想着看一些算法来熟悉clojure语法及相关算法实现. 找到一个各种语言生成迷宫的网站:http://rosettacode.org/wiki/Maze_generation ...

  8. JAVA操作证书

    一.生成证书工具keytool Java自带的工具keytool可以用来生成密钥证书,也可以查看或删除证书库里的证书.无论是windows还是Linux系统,这个工具都会出现在jdk安装目录的bin文 ...

  9. kafka&plus;zookeeper集群

    参考:  kafka中文文档   快速搭建kafka+zookeeper高可用集群   kafka+zookeeper集群搭建 kafka+zookeeper集群部署 kafka集群部署   kafk ...

  10. Linux常用监控命令简介 - top

    top -hv | -bcisS -d delay -n iterations -p pid [, pid ...] 指令介绍-b : 批次模式运行.-c : 显示执行任务的命令行.-d : 设定延迟 ...