首页 > 其他分享 >RTMP、X264与交叉编译

RTMP、X264与交叉编译

时间:2023-01-10 17:23:06浏览次数:60  
标签:body -- packet 编译 disable RTMP x264 X264

RTMP、X264与交叉编译

​ 与HTTP(超文本传输协议)同样是一个基于TCP的Real Time Messaging Protocol(实时消息传输协议)。由Adobe Systems公司为Flash播放器和服务器之间音频、视频和数据传输开发的一种开放协议 。在国内被广泛的应用于直播领域。HTTP默认端口为80,RTMP则为1935。

​ 本质上我们通过阅读Adobe的协议规范,通过与服务器建立TCP通信,根据协议格式生成与解析数据即可使用RTMP进行直播。当然我们也可以借助一些实现了RTMP协议的开源库来完成这一过程。

RTMPDump

RTMPDump 是一个用来处理RTMP流媒体的开源工具包。它能够单独使用进行RTMP的通信,也可以集成到FFmpeg中通过FFmpeg接口来使用RTMPDump。

​ RTMPDump源码下载:http://rtmpdump.mplayerhq.hu/download/rtmpdump-2.3.tgz

交叉编译

​ 在Android中可以直接借助NDK在JNI层调用RTMPDump来完成RTMP通信。但是首先必须得进行交叉编译。

RTMPDump源码结构如下:

rtmp源码.png

​ 在根目录下提供了一个Makefile与一些.c源文件。这里的源文件将会编译出一系列的可执行文件。然后我们需要的并不是可执行文件,真正的对RTMP的实现都在librtmp子目录中。在这个子目录中同样包含了一个Makefile文件。通过阅读Makefile发现,它的源码并不多:OBJS=rtmp.o log.o amf.o hashswf.o parseurl.o。因此我们不进行预编译,即直接放入AS中借助CMakeLists.txt来进行编译。这么做可以让我们方便的对库本身进行调试或修改(实际上我们确实会稍微修改这个库的源码)。

​ 在AS中复制librtmp置于:src/main/cpp/librtmp,并为其编写CMakeLists.txt

#预编译宏
set(CMAKE_C_FLAGS "${CMAKE_C_FLAGS} -DNO_CRYPTO"  )
#所有源文件放入 rtmp_source 变量
file(GLOB rtmp_source *.c)
#编译静态库
add_library(rtmp STATIC ${rtmp_source} )

app/CMakeLists.txt中导入这个CMakeLists.txt


cmake_minimum_required(VERSION 3.4.1)
#导入其他目录cmakelist
add_subdirectory(src/main/cpp/librtmp)
add_library(XXX SHARED ...)
#XXX需要链接rtmp库
target_link_libraries(XXX rtmp ...)

如果在librtmp/CMakeLists.txt中没有写set(CMAKE_C_FLAGS "${CMAKE_C_FLAGS} -DNO_CRYPTO")这句,编译会报错,因为librtmp\hashswf.c中没有openssl,所以使用这句屏蔽预编译

RTMP视频数据

​ RTMP视频流格式与FLV很相似,通过查看FLV的格式文档,就能够知道RTMP视频数据应该怎么拼接。

RTMP中的数据就是由FLV的TAG中的数据区构成。

flv整体格式.jpg

FLV tags 结构


字段 字节 描述
类型 1 0x08: 音频
0x09: 视频
0x12: 脚本(描述信息)
数据大小 3 数据区的大小,不包括包头。
时间戳 3 当前帧相对时间戳,单位是毫秒。相对于第一个TAG时戳。
时戳扩展 1 如果时戳大于0xFFFFFF,将会存在字节。
流ID 3 总是0
数据区 n 音、视频包

flv解码配置信息.png

如上图,第一个字节0x09表示此段数据为视频,数据大小为0x00,0x00,0x2F即47,时间戳为0x00,0x00,0x00,时间戳扩展也为0x00。(第二行)流ID:0x00,0x00,0x00。接下来就是视频数据,通过此处的数据大小字段得知,数据长为47字节。则从0x17开始,一直到最后一行的0xC0,就是数据区域,而最后的0x00,0x00,0x00,0x3A 即58,表示的是这个数据块除最后4个字节的总大小。本处为视频数据,那么从0x17开始,数据内容则为下面的部分。

视频数据

字段 占位 描述
帧类型 4 1: 关键帧
2: 普通帧
......
编码ID 4 7: 高级视频编码 AVC
......
视频数据 n AVC则需要下面的AVCVIDEOPACKET

AVCVIDEOPACKET

字段 字节 描述
类型 1 0:AVC 序列头(指导播放器如何解码)
1:其他单元(其他NALU)
合成时间 3 对于AVC,全为0
数据 n 类型不同,数据不同

flv解码序列包.png

视频数据中 0x17 则表示了1: 关键帧与7: 高级视频编码 AVC,如果是普通帧,则此数据为0x27。而类型为:0x00表示这段数据为AVC序列头(avc sequence header)。最后三个字节为合成时间。而如果类型为AVC序列头接下来的数据就是下面的内容:

AVC 序列头

​ 在AVCVIDEOPACKET 中如果类型为0,则后续数据为:

类型 字节 说明
版本 1 0x01
编码规格 3 sps[1]+sps[2]+sps[3] (后面说明)
几个字节表示 NALU 的长度 1 0xFF,包长为 (0xFF& 3) + 1,也就是4字节表示
SPS个数 1 0xE1,个数为0xE1 & 0x1F 也就是1
SPS长度 2 整个sps的长度
sps的内容 n 整个sps
pps个数 1 0x01,不用计算就是1
pps长度 2 整个pps长度
pps内容 n 整个pps内容

flv解码序列包sps与pps.png

0x01为版本,后续数据按照上表记录,最后四字节上面说过:为这个数据块除最后4个字节的总大小。其中
SPS与PPS是编码器在编码H.264视频时,在关键帧前会编码出的关于这个关键帧与需要参考该关键帧的B/P
帧如何解码的内容,如:宽、高等信息。

其他

​ 在AVCVIDEOPACKET 中如果类型为1,则后续数据为:

类型 字节 说明
包长 由AVC 序列头中定义 后续长度
数据 n H.264数据

一般情况下,组装的RTMPPacket(RTMPDump中的结构体)为:

视频包.png

这里的sps与pps表示 AVC序列头

视频解码序列包.png

所以对于视频的数据封装,AVC序列头为:

int i = 0; 
//AVC sequence header 与IDR一样
packet->m_body[i++] = 0x17; 
//AVC sequence header 设置为0x00 
packet->m_body[i++] = 0x00;
//CompositionTime 
packet->m_body[i++] = 0x00; 
packet->m_body[i++] = 0x00; 
packet->m_body[i++] = 0x00; 
//AVC sequence header 
packet->m_body[i++] = 0x01; //configurationVersion 版本号 1 
packet->m_body[i++] = sps[1]; //profile 如baseline、main、 high 

packet->m_body[i++] = sps[2]; //profile_compatibility 兼容性 
packet->m_body[i++] = sps[3]; //profile level 
packet->m_body[i++] = 0xFF; // reserved(111111) + lengthSizeMinusOne(2位 nal 长度) 总是 0xff

//sps 
packet->m_body[i++] = 0xE1; //reserved(111) + lengthSizeMinusOne(5位 sps 个数) 总是0xe1 
//sps length 2字节 
packet->m_body[i++] = (sps_len >> 8) & 0xff; //第0个字节 
packet->m_body[i++] = sps_len & 0xff; //第1个字节 
memcpy(&packet->m_body[i], sps,sps_len); 
i += sps_len;

/*pps*/ 
packet->m_body[i++] = 0x01; //pps number 
//pps length 
packet->m_body[i++] = (pps_len >> 8) & 0xff; 
packet->m_body[i++] = pps_len & 0xff; 
memcpy(&packet->m_body[i],pps, pps_len);

而对于非AVC序列头,关键字与非关键字,只有第一个字节0x17与0x27的区别:

packet->m_body[0] = 0x27; 
if (buf[0] == 0x65) { //关键帧 
    packet->m_body[0] = 0x17; 
    LOGI("发送关键帧 data");
}
packet->m_body[1] = 0x01;
packet->m_body[2] = 0x00; 
packet->m_body[3] = 0x00;
packet->m_body[4] = 0x00; 

//长度 
packet->m_body[5] = (len >> 24) & 0xff; 
packet->m_body[6] = (len >> 16) & 0xff;
packet->m_body[7] = (len >> 8) & 0xff; 
packet->m_body[8] = (len) & 0xff;

//buf为编码出的一帧h.264数据 
memcpy(&packet->m_body[9], buf, len);
H.264数据

image

H.264码流在网络中传输时实际是以NALU的形式进行传输的。NALU就是NAL UNIT,NAL单元。NAL全称Network Abstract Layer,即网络抽象层。在H.264/AVC视频编码标准中,整个系统框架被分为了两个层面:视频编码层面(VCL)和网络抽象层面(NAL)。其中,前者负责有效表示视频数据的内容,而后者则负责格式化数据并提供头信息,以保证数据适合各种信道和存储介质上的传输。我们平时的每帧数据就是一个NAL单元。

往RTMP包中填充的就是NAL数据,但不是直接将编码出来的数据填充进去

一段包含了N个图像的H.264裸数据,每个NAL之间由00 00 00 01或者00 00 01进行分割。在分割符之后的第一个字节,就是表示这个nal的类型。

  • 0x67: sps
  • 0x68: pps
  • 0x65: IDR

在将数据加入RTMPPacket的时候是需要去除分割符的。

image

所以完整的封包代码为:

buf += 4; //跳过 0x00 0x00 0x00 0x01 
len -= 4; 
int body_size = len + 9; 
RTMPPacket *packet = (RTMPPacket *) malloc(sizeof(RTMPPacket));
RTMPPacket_Alloc(packet, len + 9); 

packet->m_body[0] = 0x27; 
if (buf[0] == 0x65) { //关键帧 
    packet->m_body[0] = 0x17;
    LOGI("发送关键帧 data"); 
}
packet->m_body[1] = 0x01;
packet->m_body[2] = 0x00;
packet->m_body[3] = 0x00;
packet->m_body[4] = 0x00; 

//长度 
packet->m_body[5] = (len >> 24) & 0xff; 
packet->m_body[6] = (len >> 16) & 0xff; 
packet->m_body[7] = (len >> 8) & 0xff; 
packet->m_body[8] = (len) & 0xff;

//数据
memcpy(&packet->m_body[9], buf, len);
NALU

NALU就是NAL UNIT,nal单元。NAL全称Network Abstract Layer, 即网络抽象层,H.264在网络上传输的结构。
一帧图片经过 H.264 编码器之后,就被编码为一个或多个片(slice),而装载着这些片(slice)的载体,就是
NALU 了 。

音频数据

RTMP的音频数据相对视频比较简单,只需要根据是否为音频audio specific config(记录音频的格式)。如果为
audio specific config拼接0xAF,0x00,否则就只需要添加0xAF,0x01。

image

int body_size = len + 2; 
RTMPPacket *packet = (RTMPPacket *) malloc(sizeof(RTMPPacket));
RTMPPacket_Alloc(packet, body_size); 
packet->m_body[0] = 0xAF;
packet->m_body[1] = 0x01; 
//audio specific config 
if (type == 1) {
    packet->m_body[1] = 0x00;
}
memcpy(&packet->m_body[2], buf, len);

0xAF的由来:

image

我们的编码为,10:AAC,3:44100采样率,1:采样长度,1:声道。按照位数表示数据就为:0xAF

image

audio specific config只需要在发起推流时,发送音频数据之前发起一次即可。其数据为两字节:

image

image

第一个数据:AAC-LC值为2,占用5位,则数据为: 0001 0

第二个数据:采样率44100值为4,占用4位,则数据为:0100

第三个数据:声道,双声道为2,单声道为1,则数据为:0010(双声道),0001(单声道)

最后三位为0,这样组成的数据5+4+4+3=16位,两字节。

双声道:0x12 , 0x10

单声道:0x12 , 0x08

image

x264

​ x264是一个C语言编写的目前对H.264标准支持最完善的编解码库。与RTMPDump一样同样直接在Android中使用,也可以集成进入FFMpeg。

https://www.videolan.org/developers/x264.html

在linux下载编译:

​ wget ftp://ftp.videolan.org/pub/x264/snapshots/last_x264.tar.bz2

下载完成后将在当前目录下存在x264目录,目录中为x264的所有源码。接下来我们开始使用NDK对其进行交叉编译。

进入x264目录之后执行ls,可以看到x264源码根目录下的所有文件与文件夹。在x264目录下存在一个 configure文件。

并不是所有的库都已经存在configure文件,可能只存在configure.acmakefile.am。这种情况需要借助 autoconf来生成configure。
如果存在configure,这时候我们第一反应一定是执行help指令:

如果存在configure,这时候我们第一反应一定是执行help指令:

./configure --help

#输出
Usage: ./configure [options]

Help:
  -h, --help               print this message

Standard options:
  --prefix=PREFIX          install architecture-independent files in PREFIX
                           [/usr/local]
  --exec-prefix=EPREFIX    install architecture-dependent files in EPREFIX
                           [PREFIX]
  --bindir=DIR             install binaries in DIR [EPREFIX/bin]
  --libdir=DIR             install libs in DIR [EPREFIX/lib]
  --includedir=DIR         install includes in DIR [PREFIX/include]
  --extra-asflags=EASFLAGS add EASFLAGS to ASFLAGS
  --extra-cflags=ECFLAGS   add ECFLAGS to CFLAGS
  --extra-ldflags=ELDFLAGS add ELDFLAGS to LDFLAGS
  --extra-rcflags=ERCFLAGS add ERCFLAGS to RCFLAGS

Configuration options:
  --disable-cli            disable cli
  --system-libx264         use system libx264 instead of internal
  --enable-shared          build shared library
  --enable-static          build static library
  --disable-opencl         disable OpenCL features
  --disable-gpl            disable GPL-only features
  --disable-thread         disable multithreaded encoding
  --disable-win32thread    disable win32threads (windows only)
  --disable-interlaced     disable interlaced encoding support
  --bit-depth=BIT_DEPTH    set output bit depth (8, 10, all) [all]
  --chroma-format=FORMAT   output chroma format (400, 420, 422, 444, all) [all]

Advanced options:
  --disable-asm            disable platform-specific assembly optimizations
  --enable-lto             enable link-time optimization
  --enable-debug           add -g
  --enable-gprof           add -pg
  --enable-strip           add -s
  --enable-pic             build position-independent code

Cross-compilation:
  --host=HOST              build programs to run on HOST
  --cross-prefix=PREFIX    use PREFIX for compilation tools
  --sysroot=SYSROOT        root of cross-build tree

External library support:
  --disable-avs            disable avisynth support
  --disable-swscale        disable swscale support
  --disable-lavf           disable libavformat support
  --disable-ffms           disable ffmpegsource support
  --disable-gpac           disable gpac support
  --disable-lsmash         disable lsmash support

x264的编译配置不算多,在编写我们的交叉编译脚本之前。首先来简单分析下应该如何编译这个库。

首先我们看到Standard options中存在--prefix(设置编译结果输出目录),一般规范的配置脚本都会存在这个参数,相信大家也能理解它是干嘛的(有些坑爹的可能没有)。同时还存在--extra-cflags参数,这表示我们可以借助这个参数来对编译器(gcc/clang)设置选项,类似给javac设置-classpath等参数,就可以传递给它。

然后在Configuration options中有一个--disable-cli,cli是命令行工具的意思,所以这个配置是关闭编译命令
行工具,我们在Android中使用,是自己编写代码,而不是借助命令行工具,所以可以加上这个配置。(不加也没事,他编译出来就编译咯,我们不用就行了)。这个分组中可以看到主要是enable/disable一些功能,在这里我更喜欢使用静态库,所以我会开启--enable-static

第三组为Advanced options,在这个组里的--enable-debug/gprof/strip可以看到说明就是add -g/-pg/-s,这其
实就是给编译器传递参数:gcc -g/ clang -g-enable-pic这个配置其实也是给编译器附加-fPIC参数,这里我们记住一点:如果编译Android使用的动态库使用PIC,编译Android可用的命令行工具使用PIE

第四组为Cross-compilation,非常爽快的提供了交叉编译的配置,但是实际上更多的是可能不会提供这些东西。这里的配置是干嘛的,可以去看看 CMake配置 这节课。

最后一组External library support, 一些扩展内容的关闭,如果你不了解你是否会用到这里的内容,那就先别管
它。

我们这里是以目标平台版本17为例,如果是最新版本的,则因为Android的NDK在19版本以上去掉了gcc,使用clang替代,所以下面给处理最新版本的编译脚本:

#!/bin/bash

#NDK目录
NDK_ROOT=/home/zxj/android-ndk-r20
#编译后安装位置 pwd表示当前目录
PREFIX=`pwd`/android/armeabi-v7a

#目标平台版本,我们将兼容到android-21
API=21

#编译工具链目录
TOOLCHAIN=$NDK_ROOT/toolchains/llvm/prebuilt/linux-x86_64

#小技巧,创建一个AS的NDK工程,执行编译,
#然后在 app/.cxx/cmake/debug(release)/自己要编译的平台/目录下自己观察 build.ninja与rules.ninja
FLAGS="--target=armv7-none-linux-androideabi21 --gcc-toolchain=$TOOLCHAIN -g -DANDROID -fdata-sections -ffunction-sections -funwind-tables -fstack-protector-strong -no-canonical-prefixes -fno-addrsin -march=armv7-a -mthumb -Wa,--noexecstack -Wformat -Werror=format-security -Oz -DNDEBUG -fPIC"


#虽然x264提供了交叉编译配置:--cross-prefix,如--corss-prefix=/NDK/arm-linux-androideabi-
#那么则会使用 /NDK/arm-linux-androideabi-gcc 来编译
#然而ndk19开始gcc已经被移除,由clang替代。 
# 小常识:一般的库都会使用$CC 变量来保存编译器,我们自己设置CC变量的值为clang。
export CC=$TOOLCHAIN/bin/armv7a-linux-androideabi$API-clang
export CXX=$TOOLCHAIN/bin/armv7a-linux-androideabi$API-clang++

#--extra-cflag会附加到CFLAGS 变量之后,作为传递给编译器的参数,所以就算有些库没有--extra-cflags配置, 我们也可以自己创建变量CFLAGS传参。

./configure --prefix=$PREFIX \
--disable-cli \
--enable-static \
--enable-pic \
--host=arm-linux \
--cross-prefix=$TOOLCHAIN/bin/arm-linux-androideabi- \
--sysroot=$TOOLCHAIN/sysroot \
--extra-cflags="$FLAGS" 

make install

交叉编译

​ 在Android中使用x264,首先需要预编译出x264的静/动态库

#!/bin/bash

PREFIX=./android/armeabi-v7a

NDK_ROOT=/home/zxj/android-ndk-r17c

TOOLCHAIN=$NDK_ROOT/toolchains/arm-linux-androideabi-4.9/prebuilt/linux-x86_64

FLAGS="-isysroot $NDK_ROOT/sysroot -isystem $NDK_ROOT/sysroot/usr/include/arm-linux-androideabi -D__ANDROID_API__=17 -g -DANDROID -ffunction-sections -funwind-tables -fstack-protector-strong -no-canonical-prefixes -march=armv7-a -mfloat-abi=softfp -mfpu=vfpv3-d16 -mthumb -Wa,--noexecstack -Wformat -Werror=format-security  -O0 -fPIC"
#--disable-cli 不需要命令行工具
#--enable-static 静态库
#和ffmpeg差不多
./configure \
--prefix=$PREFIX \
--disable-cli \
--enable-static \
--enable-pic \
--host=arm-linux \
--cross-prefix=$TOOLCHAIN/bin/arm-linux-androideabi- \
--sysroot=$NDK_ROOT/platforms/android-17/arch-arm \
--extra-cflags="$FLAGS"

make clean
make install

但是编译x264我们需要注意一点,x264在进行环境检测的时候,使用的是比较宽松的方式,对于我们目前需要编译的android-17为目标来说,编译出的库在使用上会出现问题(对于18以上不会)。

注意:我当前使用的是x264的版本是x264-shapshot-20180916-2245,现在最新版本的好像不会出现这个问题了。

为什么有问题

当我们使用android-17版本执行上面的x264编译脚本后生成libx264.a,不会出现错误日志,然后我们在把这个生成的x264预编译库集成到ffmpag

#!/bin/bash

PREFIX=./android/armeabi-v7a

NDK_ROOT=/home/zxj/android-ndk-r17c

CPU=arm-linux-androideabi
TOOLCHAIN=$NDK_ROOT/toolchains/$CPU-4.9/prebuilt/linux-x86_64

FLAGS="-U_FILE_OFFSET_BITS -isystem $NDK_ROOT/sysroot/usr/include/arm-linux-androideabi -D__ANDROID_API__=17 -g -DANDROID -ffunction-sections -funwind-tables -fstack-protector-strong -no-canonical-prefixes -march=armv7-a -mfloat-abi=softfp -mfpu=vfpv3-d16 -mthumb -Wa,--noexecstack -Wformat -Werror=format-security  -O0 -fPIC"

PREFIX=./android/armeabi-v7a/live
X264=/home/zxj/x264-master/android/armeabi-v7a

# --enable-gpl 集成libx264的时候必须要加上gpl,不加的话会报错
# --extra-cflags 指定X264头文件查找路径
# --extra-ldflags库文件的查找路径


# \ 换行连接符
./configure --prefix=$PREFIX \
--enable-small \
--disable-programs \
--disable-avdevice \
--disable-postproc \
--disable-encoders \
--disable-muxers \
--disable-filters \
--enable-libx264 \
--enable-gpl \
--enable-cross-compile \
--cross-prefix=$TOOLCHAIN/bin/$CPU- \
--disable-shared \
--enable-static \
--sysroot=$NDK_ROOT/platforms/android-17/arch-arm \
--extra-cflags="$FLAGS -I$X264/include" \
--extra-cflags="-isysroot $NDK_ROOT/sysroot/" \
--extra-ldflags="-L$X264/lib" \
--arch=arm \
--target-os=android 

# 清理一下 
make clean
#执行makefile
make install

这里的ffmpag预编译脚本里的所有的目标版本都改为17,如果是17的版本则必须在FLAGS开头需要加上-U_FILE_OFFSET_BITS

然后执行ffmpag的编译脚本,会发现打印日志里有报错信息

image

我们可以通过ffbuild/config.log文件查看具体的错误日志,打开这个文件后,直接定位到最后,可以看到错误信息

image

可以看到没有log2flog2函数,这是由于x264使用了这两个函数,却没有这两个函数的实现导致的,那么编译x264的时候没有出现问题,x264集成到ffmpag里就出现问题了。

这两个函数其实是在NDK里面是有实现的,打开NDK目录

image

这个libm.so是一个数学的函数库,我们可以通过nm命令来查看一下里面有那些函数

image

sdk\ndk-bundle\toolchains\arm-linux-androideabi-4.9\prebuilt\windows-x86_64\bin\arm-linux-androideabi-nm.exe libm.so

image

可以看到android-17里的libm.so库中是没有上面那两个函数的,在看看android-18

image

可以看到android-18里面是有上面那两个函数的log2flog2函数,所以就会出现android-17会报错,而android-18以上不回报错

具体的出错原因是在x264的common/osdep.h里面定义了一个HAVE_LOG2F的宏变量,如下图:如果HAVE_LOG2F为1那么就不会定义log2flog2这两个函数,那HAVE_LOG2F在哪里定义的为1呢?

image

是在x264的config.h头文件里
image

注意:在最新的x264版本中这个HAVE_LOG2F的宏变量定义的值是0,所以不会出现上面的问题。

这个config.h头文件是在执行x264的configure的这个配置脚本的时候生成的。那么它在执行这个配置脚本的时候会调用cc_check()函数来检查有没有log2flog2这两个函数的时候,它会执行一个命令cc_cmd="$CC conftest.c $CFLAGS $CHECK_CFLAGS $2 $LDFLAGSCLI $LDFLAGS -o conftest",这里有个conftest.c是一个临时文件,我们可以输出一下这条命令及查看这个临时文件

image

再次执行一下x264的编译脚本build.sh,看一下输出日志

image

conftest.c文件的代码

#include <math.h>
int main(void){log2f(2); return 0;}

解决方法

我们需要修改configure脚本,在脚本中搜索cc_check

vim如何搜索:在vim里底线命令模式,输入 /cc_check

cc_check() {
	......
 	if [ $compiler_style = MS ]; then
        cc_cmd="$CC conftest.c -Werror=implicit-function-declaration  $(cc_cflags $CFLAGS $CHECK_CFLAGS $2) -link $(cl_ldflags $2 $LDFLAGSCLI $LDFLAGS)"
    else
        cc_cmd="$CC conftest.c -Werror=implicit-function-declaration  $CFLAGS $CHECK_CFLAGS $2 $LDFLAGSCLI $LDFLAGS -o conftest"
 	fi
	......
}  

cc_cmd内添加 -Werror=implicit-function-declaration

都弄好后,开始执行./build.sh脚本,会生成libx264.a

脚本执行完后,会在当前目录下生成android目录,将其打包:

导入项目中

将上面编译好的资源导入到项目中

编写app/CMakeLists.txt

最后不要忘记了在build.gradle中加入abiFilters "armeabi-v7a"

NALU

​ NALU就是NAL UNIT,nal单元。NAL全称Network Abstract Layer, 即网络抽象层,H.264在网络上传输的结构。一帧图片经过 H.264 编码器之后,就被编码为一个或多个片(slice),而装载着这些片(slice)的载体,就是 NALU 了 。

​ 我们通过x264编码获得一组或者多组 x264_nal_t。结合RTMP,我们需要区分的是SPS、PPS、关键帧与普通帧:

enum nal_unit_type_e
{
    NAL_UNKNOWN     = 0,
    NAL_SLICE       = 1,
    NAL_SLICE_DPA   = 2,
    NAL_SLICE_DPB   = 3,
    NAL_SLICE_DPC   = 4,
    NAL_SLICE_IDR   = 5,    /* ref_idc != 0 */ 		//关键帧片
    NAL_SEI         = 6,    /* ref_idc == 0 */
    NAL_SPS         = 7,					 	  //sps片
    NAL_PPS         = 8,						  //pps片
    NAL_AUD         = 9,
    NAL_FILLER      = 12,
    /* ref_idc == 0 for 6,9,10,11,12 */
};

IDR

​ 一段h264视频由N组GOP(group of picture)组成,GOP指的就是画面组,一个GOP是一组连续的画面 。之前的学习中我们知道I帧能够独立解码,而P、B需要参考其他帧。

​ 属于I帧的子集,有一种特殊的I帧,被称之为IDR帧,IDR帧的作用为即时刷新。

GOP.png

上面的这张图片描述的是2组GOP。其他I帧与IDR帧的区别就在于:刷新。当解码器解码帧5的时候,可以跨过帧4参考到帧3,普通I帧不会导致解码器的解码信息数据刷新。而IDR帧则会刷新解码需要的SPS、PPS数据,所以帧8不可能跨帧7参考解码。

H.264数据

往RTMP包中填充的是H.264数据,但不是直接将x264编码出来的数据填充进去。

一段包含了N个图像的H.264裸数据,每个NAL之间由:

​ 00 00 00 01 或者 00 00 01

进行分割。在分割符之后的第一个字节,就是表示这个nal的类型。

0x67:sps 0x68:pps 0x65:IDR

即为上面的

NAL_SLICE_IDR 0x65& 0x1f = 5

NAL_SPS 0x67 & 0x1f = 7,
NAL_PPS 0x68 & 0x1f= 8,

在将数据加入RTMPPacket的时候是需要去除分割符的。

h264.png

标签:body,--,packet,编译,disable,RTMP,x264,X264
From: https://www.cnblogs.com/zuojie/p/17010301.html

相关文章