名词定义 CIF,指RK芯片中的VIP模块,用以接收Sensor数据并保存到Memory中,仅转存数据,无ISP功能 DVP,一种并行数据传输接口,即Digital Video Port HSYNC,指DVP接口的行同步信号 PCLK,指Sensor输出Pixel Clock VSYNC,指DVP接口的场同步信号 V4L2,即Video4Linux2,Linux kernel的视频处理模块 视频格式 视频格式一般分成BT1120(BT656)和BT601两种。 BT1120视频数据只支持内同步。信号内同步的意思是图像数据和同步信号均包含在图像数据中,通过关键字恢复同步信号。可以参考我的另一篇博客SDI视频数据流格式简介 BT601协议采用外同步,外同步是指图像数据和同步数据(HS、VS、DE)单独传送。 因为内同步是将图像与同步信号一起传送,因此会有同步分离机制,所以亮度及色彩不可能全编码,以8BIT为例,可以传送的范围为0-255,但内同步一起传送,实际编码不可能有256范围,在ITU-656中大多采用16-235,而ITU-601因为采用外同步,可以传送0-255 范围的数据。因此,内同步的色采及亮度在细节上没有内同步好。但是,在串行编码及低带宽传送中,内同步可以减少数据流,因此,通过内同步传送图像虽然色彩有一定的损失,但可以换来更低的带宽。 视频格式一般在视频的驱动程序中进行设置,只有以下两种格式: config->type = V4L2_MBUS_BT656;//BT1120 BT656 config->type = V4L2_MBUS_PARALLEL;//BT601 一般BT601使用较多,外同步信号,需要配合行场同步信号。 sensor与isp sensor与isp之间的关系图一般如下所示: 首先ISP也就是ARM芯片端,需要通过I2C总线对sensor进行配置,主要通过SCL(时钟线)和SDA(数据线)对sensor的寄存器进行配置,可以决定sensor的分辨率、输出视频格式(rgb、yuv)、白平衡等进行设置。 部分摄像头可能不含晶振,比如OV7670,所以就需要ISP提供相机时钟,也就是XCLK进行驱动,一般在24MHz左右。部分带有晶振的相机,比如OV2640,由于集成了晶振,所以无需进行外部时钟驱动。 VS、HS和PCLK是sensor输出的行场同步信号和像素时钟。 DATA是sensor输出的像素值,一般8位较多。 然后对以上的各个部分进行介绍。 I2C 由于ARM芯片具有较多的I2C引脚,比如RV1126好像就有5个I2C引脚。每一个相机的I2C都要连接到对应的引脚上,以正点原子的RV1126开发板为例,I2C就挂载到了I2C1下: 在设备树dts中,就要把OV2640的摄像头节点放在I2C1下,比如: &i2c1 { status = "okay"; clock-frequency = <100000>; ov2640: camera@3c { compatible = "ovti,ov2640"; pinctrl-names = "default"; reg = <0x3c>; ...... } } 摄像头所支持的I2C时钟速度最快可达到400Kbps,同时每一款摄像头都有专属的地址,比如ov2640的地址是0x3c,注意地址是硬件设计死的无法更改。 I2C设备可以使用i2cdetect工具进行调试,比如查看i2c1下挂载了哪些设备,可以通过以下命令进行查看: i2cdetect -y 1 若我在0x21处挂载了设备,将得到: 同时可以使用以下命令查看i2c寄存器中的值,比如我要查看i2c1下地址为0x3c处寄存器的值,可以通过以下名称查看: i2cdump -y -f 1 0x3c 值得注意的是有些摄像头将power_down拉低后,开发板才能够通过i2c与相机寄存器之间进行通信,比如上方为拉低了的,下方为未拉低。 另:OV公司的I2C不是标准的I2C总线,为了避开专利,他们采用的是SCCB总线技术,不过经过测试与I2C区别不大。 SCCB是欧姆尼图像技术公司(OmniVision)开发的一种总线,应用于OV系列图像传感器上。SCCB最主要是阉割了IIC的连续读写的功能,即每读写完一个字节就主机必须发送一个NA信号。 XCLK 部分不带晶振的摄像头需要提供XCLK像素时钟进行驱动,在设备树中可以通过以下进行添加,注意时钟名字要与驱动对应: 比如设备树中可能如下: clocks = <&cru CLK_CIF_OUT>; clock-names = "xvclk"; 驱动部分对应如下: priv->clk = v4l2_clk_get(&client->dev, "xvclk"); if (IS_ERR(priv->clk)) return -EPROBE_DEFER; 行场同步信号 不同相机的行场同步信号可能不同,具体可以查询芯片手册,不过注意的是芯片手册不一定准确,比如OV2640,芯片手册的时序为: 可以看出是标准的SDI格式,也就是当DE也就是HREF为高时,VSYNC为低,VSYNC只在有效像素前产生一段高电平。但是按照这个时序产生的同步信号始终无法抓取到图像,经过抓取之后发现OV2640输出的时序如下: 可以看出当DE为高时,也就是有效像素部分,VS也为高,基本与手册中写的相反,按照上面的时序即可抓取到图像。 正确OV2640时序的Verilog代码如下,注意分辨率为800x600,YUYV格式8bit: parameter ROWS = 600; parameter COLS = 1600; parameter ROWS_TOTAL = 672; parameter COLS_TOTAL = 3840; parameter ROW_START = 36; parameter COL_START = 1000; reg [12:0] rROW; reg [12:0] rCOL; always@(posedge wCLK18M) begin if(!iRst) begin rROW <= 0; rCOL <= 0; end else begin if(rCOL==COLS_TOTAL-1) begin rCOL <= 0; rROW <= rROW + 1; end else begin rCOL <= rCOL + 1; end if(rROW == ROWS_TOTAL) begin rROW <= 0; end end end reg r2640DE; reg r2640VS; reg [7:0] r2640H; always@(posedge wCLK18M) begin if(rROW >= ROW_START && rROW < (ROW_START + ROWS)) begin r2640VS <= 1; if(rCOL >= COL_START && rCOL < (COL_START + COLS)) begin r2640DE <= 1; end else begin r2640DE <= 0; end end else begin r2640VS <= 0; end end 生成的波形如下: 同时也要注意HS和VS的极性,也就是有效时的电平高低,主要收到设备树和驱动的控制,设备树部分如下: &i2c1 { status = "okay"; // clock-frequency = <400000>; clock-frequency = <100000>; ov2640: camera@3c { compatible = "ovti,ov2640"; pinctrl-names = "default"; pinctrl-0 = <&cifm1_dvp_ctl>; reg = <0x3c>; clocks = <&cru CLK_CIF_OUT>; clock-names = "xvclk"; port { /* Parallel bus endpoint */ cam_para_out1: endpoint { remote-endpoint = <&cif_para_in>; bus-width = <8>; //data-shift = <2>; /* lines 9:2 are used */ hsync-active = <1>; vsync-active = <1>;//<1>; pclk-sample = <1>; }; }; }; }; &rkcif_dvp { status = "okay"; port { cif_para_in: endpoint { remote-endpoint = <&cam_para_out1>; bus-width = <8>; hsync-active = <1>; vsync-active = <1>; }; }; }; 驱动部分: config->flags = V4L2_MBUS_PCLK_SAMPLE_RISING | V4L2_MBUS_MASTER | V4L2_MBUS_VSYNC_ACTIVE_HIGH | V4L2_MBUS_HSYNC_ACTIVE_HIGH | V4L2_MBUS_DATA_ACTIVE_HIGH; 两者要与实际情况相匹配。 DATA sensor输出的数据一般8位居多,也有16位和10位的,RV1126的CIF接口输入如下: 优先使用CIF接口的高位进行传输。 同时还要对MEDIA_BUS_FMT进行配置,与sensor输出的像素格式对应,可以参考V4L2的手册,格式十分丰富。 以OV2640为例支持以下的格式: static u32 ov2640_codes[] = { MEDIA_BUS_FMT_YUYV8_2X8, MEDIA_BUS_FMT_UYVY8_2X8, MEDIA_BUS_FMT_YVYU8_2X8, MEDIA_BUS_FMT_VYUY8_2X8, MEDIA_BUS_FMT_RGB565_2X8_BE, MEDIA_BUS_FMT_RGB565_2X8_LE, }; 以MEDIA_BUS_FMT_YUYV8_2X8为例,视频输出的格式位YUYV,并且深度是8bit色深,每次只传输8bit,两个像素周期才是一个完整的像素。 抓图 抓图一般使用v4l2-ctl进行抓图,对于dvp接口可以在video0进行抓图,对于mipi则不行,抓图实例如下: v4l2-ctl -d /dev/video0 --set-fmt-video=width=800,height=600,pixelformat=YUYV8_2X8--stream-mmap=3 --stream-skip=3 --stream-to=./cif.out --stream-count=1 --stream-poll 抓图成功一般如下所示,会有 < 打印输出: 并且对于800x600大小YUYV8_2X8格式的图片一般占用940k存储空间。 并且可以通过以下python代码查看像素值: yuv = "./pic.out" with open(yuv, "rb") as yuv_f: yuv_bytes = yuv_f.read() yuv_data = np.frombuffer(yuv_bytes, np.uint8) 同时在/proc路径下也会有统计信息得到保存,通过以下命令进行查看: cat /proc/rkcif_dvp 以上就是对dvp相机的视频接入的简单介绍,各位有疑问可以留言,进行交流。
标签:同步,cif,为例,V4L2,rv1126,像素,2X8,I2C,sensor From: https://www.cnblogs.com/kn-zheng/p/17529683.html