很多人可能会这样惊讶的问道,况且,直到现在我也不能确定能不能传输视频,我本人觉得估计也有点吃力!!!不过现在已经完成了图片的传输,从传输时间来看还是漫长的让人接受不了,一张320*240图片的传输大概需要10s(后面会详述为什么会有这么长时间和可以改进的地方),但是,一张完整图片经过无线发射完只需1.2s(去除发送等待时间大概只需720ms)左右的时间,大部分时间还是消耗在采集端的发送延时等待(目前还没有用中断,下一步改成中断处理)以及上位机(ARM9)驱动中的数据复制(copy to usr,用mmap方式应该会快一点(引用别人的结论——用mmap方法就不会造成CPU的CACHE频繁失效,从而大大节约时间——Ethan的《copy_to_user与mmap的工作原理》),这也是下一步的计划),并且这些数据都是没有经过任何处理的原始RGB BAYER PATTERN。为什么要做这个平台呢??原因在于目前参加了一个省竞赛,关于《都市开心农场》(QQ农场的实例版),考虑到植物生长的相对静态性,不需要实时的图像采集,并且考虑到这个项目要和物联网或是无线传感网有关联,所以就采用了这个无线传输方案。先不说可行性了,关键在于学习,这20天中,也学习了不少东西,ARM驱动开发、图像的格式,显示以及液晶屏framebuffer的使用。下面就一步步叙述整个开发过程吧。
先来说说目前已经达到的效果,通过Atmega16+OV7620+nrf24l01采集图像,图像格式可以设为YUV422,RGB RAW16,RGB8bit,前两种目前只能显示为灰度图像(OV7620的UV管脚没有用,只能通过Y通道获取数据)并且对图像这块也不了解,GB8bit支持彩色显示,可以在4.3 16bpp LCD上显示(图像质量还可以),并且可以通过网络传到上位机(电脑),不过,这块还没有做好,只能接收到数据,还没有显示出来(这也是后面的工作了)。ARM+nrf24l01作为目前的终端(这个也只是作为我一个项目中的网关,所以先熟悉了再说,不过到时候可不是nrf24了)。基本上已经完成了图像的采集、传输、处理(显示)整个流程,最后要做的也是最困难的——优化。
作为开发记录文档, 我想分为4个部分分别描述整个过程的关键之处:
nrf24l01无线射频模块
OV7620图像传感器
nrf24l01 在ARM上的驱动
图像在lcd中显示
首先,nrf24l01无线收发模块之前从未接触过,用过的也都是TI 早期的CC1000,CC1101模块,为什么要选它呢??可能是因为它操作简单吧(竞赛有时间限制啊),也可能是因为它有两种传输速率1M、2M(目前用的是1M,期待2M有所改善),而那些用于ZIGBEE的速率也都在250kbps左右,即选之则安之。微控制器采用的是Atmega16,时钟采用外部晶振7.3728MHz(晕,为什么用这么一个频率呢?!!)。nrf24l01通过Atmega16通用IO模拟出的SPI连接(第一个瓶颈)。那么首先来说说IO模拟SPI问题,Atmega16 SPI总线频率最高可达到时钟频率的一半(主机方式),而nrf24l01 datasheet上标注了SPI 频率可以支持到8MHz,所以当初应该选择主频更高的晶振。在本平台中没有使用SPI接口,而是用IO模拟的SPI时序(因为这样的程序网上到处都是),后来才发现,IO模拟的SPI速率是很慢的(具体慢多少我也不清楚),所以下一步打算直接用SPI接口操作好了。下面贴出部分程序段;
/*SPI 写,返回状态值。模拟SPI 先MSB(DORD=0) 、SCK空闲时为低电平(CPOL=0)、起始沿采样,下降沿设置(CPHA=0)*/
char SPI_RW(char data)
{
char i,temp=0;
for(i=0;i<8;i++) // output 8-bit
{
if(data & 0x80)
{
PORTB |= (1 << PB5) ;
}
else
{
PORTB &= ~(1 << PB5);
}
data = (data << 1);
temp<<=1;
PORTB |= (1 << PB7);
if(PINB & (1 << PB5))temp++;
PORTB &= ~(1 << PB7);
}
return(temp);
}
//SPI READ
char SPI_Read(char reg)
{
char reg_val;
PORTB &= ~(1 << PB4); // CSN low, initialize SPI communICation...
SPI_RW(reg); // Select register to read from..
reg_val = SPI_RW(0); // read registervalue
PORTB |= (1 << PB4); // CSN high, terminate SPI communication
return(reg_val);
}
其他的函数都可以由这两个函数演变。还有个问题就是软件延时的问题,这也是今天才发现的问题,比如在时钟频率为7.3728M时,循环for(i=0;i<254;i++)执行时间大概为138us,一个for循环的执行次数为4*N+4.下面这个毫秒级延时函数则比较经典:
void delay_1ms(void)
{
unsigned int i;
for(i=1;i<(unsigned int)(xtal*143-2_;i++)
;
}
在上式中,xtal为晶振频率,单位为MHz.
OK,今天就写到这里。
此文仅作为开发记录文档,错误在所难免![page]
下面就介绍下nrf24l01的寄存器配置问题。这里我采用了增强型ShockBurst模式,具有自动前导码生成、CRC校验,并配置为自动应答ACK,这样的好处是可以减轻MCU的负担,减少开发难度。目前还没有实现组网,所以只用了其中的一个通道0,为了更简单的传输,把发送端和接收端的地址都设为同一个。需要注意的就是在启动发送和接收时的延时问题,以及发送完和接收完缓存的清除。在其Datasheet上标注的很清楚,在进入发射模式,CE置高的持续时间至少是10us,而在进入接收模式,CE置高后160us后才会检测空中信号。所以,在编程时要多加注意。我觉得主要的还是发送和接收缓存的清除问题,因为我开始时在发送语句的下一句就写了清除发送缓存的语句,结果。。。一看便知,接收一个数据包后戛然而止。这里的延时也影响整个图像数据发送的时长,我在程序中的延时是0.2ms,所以在发送所有数据时的总延时一算便知,(320*240/32)*0.2ms=480ms,而在ARM端的驱动中使用时钟滴答数jiffies记录了两个中断(接收100个数据包,也就是中端了100次,为了方便显示,100次打印一次)到来时的时刻,差值为50ms左右,这样可以算出一帧图像传输的时间为24*50ms=1.2s,如果再减去采集端发送延时等待的时间便可算出一帧图像数据实际的空中传输时间为720ms,所以在最理想的情况下可以达到1帧/s的传输速率——这个速率对于我这个项目来说还算可以(后面希望优化得到2帧/s)。看看nrf24l01的数据手册,它支持两种传输速率1M和2M,按照理论一帧图像320*240=76800,传输的时间应为76.8ms,差距还是蛮大的(一个数量级啊)。
在采集板上还有一个比较重要的部分,那就是DRAM FIFO模块——摄像头采集速率太快,而且数据量又太大,要是直接传给弱不禁风的单片机,不知道最后能得到几个数据——有待验证,呵呵。所以需要有一个高速缓存(冲)器来解决这个问题,本次采用的是AL422B(别人好像也都是这么用的,Why),3Mbit容量——对本次应用来说足矣。AL422B操作很简单,要特别注意的也就是读写的时序、读写reset、读写使能位的控制。写端/WE由OV7620的HREF和MCU的一个引脚PD4通过与非门控制,而读端直接接地,随时可以读取,而其写时序是由OV7620的PCLK引脚提供时钟,这样就可以保证每个像素值都可以按照顺序写入。当OV7620的VSYNC引脚拉高时表明已经开始采集一帧图像,MCU判断到此值后拉高PD4,之后HREF也会被拉高,这样AL422B的写使能已经有效,在PCLK的时钟下源源不断的写入数据。下面贴出本段相关的代码:
/**************************************/
while( !( PIND & (1<
PORTD |=(1<
enable_int0(); //检测到下降沿表明,一帧图像采集完毕,采用中断方式停止数据写入
delay_ms(20);
/*****************IRQ ISP****************/
#pragma interrupt_handler int0_isr:iv_INT0
void int0_isr(void)
{
PORTD &=~(1<
dISAble_int0();
}
最后还要注意一点,AL422B的读写时钟支持的频率范围在1MHz-500MHz(20-2000ns),所以非常好的兼容
PCLK的时钟(将在OV7620章节详述)。
[page]
OV7620支持的像素是:VGA(640*480)、QVGA(320*240),我用的是QVGA模式(配合液晶屏显示)。使用OV7620关键还是正确配置其内部寄存器,还有就是SCCB数据传输协议的实现。
首先有必要说下OV7620所支持的图像格式,因为,我对图像这块不熟悉,这里只说明OV支持的几种输出格式,以及相关寄存器的配置。
RGB16/8 bit ,这些格式都不是真正的RGB数据流,而是Bayer矩阵,所以在终端显示时,必须将Bayer矩阵转换为RGB。转换的核心思想是通过插值算法将Bayer矩阵中的每个像素值(一个字节)转换为RGB三个字节(我不懂图像,只能说出方法,具体算法后面我会贴出)。
本次采用的是RGB raw16 bit 模式,由于OV7620只引出了Y通道,所以配置为one line mode(这里出现了问题,明明RGB三个分量都有,但是通过插值后显示出来的尽然还是灰度图像,后面再分析原因)。下面贴出OV7620相关寄存器的配置:
unsigned char reg_12_w_reset[2]={0x12,0x80};//先清零
unsigned char reg_11_w[2]={0x11,0x00}; //配置PCLK速率 PCLK=(CLK_input/(CLK<5:0>+1)*2)),本次为1/2时钟频率
unsigned char reg_12_w[2]={0x12,0x2c}; //使能AGC,选择raw data outtput,并且使能自动白平衡
unsigned char reg_14_w[2]={0x14,0x24};//QVGA digital output format ,RGB gamma on
unsigned char reg_28_w[2]={0x28,0xa0}; //one-line RGB data format ,select Progressive sCAN mode
下面是Bayer转RGB24的算法(在液晶屏上显示时还要转为RGB16):
void bayer2rgb24(unsigned char *dst, unsigned char *SRC, long WIDTH, long HEIGHT)
{
long int i;
unsigned char *rawpt, *scanpt;
long int size;
rawpt = src;
scanpt = dst;
size = WIDTH*HEIGHT;
for ( i = 0; i < size; i++ )
{
if ( (i/WIDTH) % 2 == 0 ) //奇数行
{
if ( (i % 2) == 0 ) //奇数列
{
/* B */
if ( (i > WIDTH) && ((i % WIDTH) > 0) )
{
*scanpt++ = ((long int)*(rawpt-WIDTH-1)+(long int)*(rawpt-WIDTH+1)+
(long int)*(rawpt+WIDTH-1)+(long int)*(rawpt+WIDTH+1))/4; /* R */
*scanpt++ = ((long int)*(rawpt-1)+(long int)*(rawpt+1)+
(long int)*(rawpt+WIDTH)+(long int)*(rawpt-WIDTH))/4; /* G */
*scanpt++ = *rawpt; /* B */
}
else /* first line or left column */
{
*scanpt++ = *(rawpt+WIDTH+1); /* R */
*scanpt++ = ((long int)*(rawpt+1)+(long int)*(rawpt+WIDTH))/2; /* G */
*scanpt++ = *rawpt; /* B */
}
}
else
{
/* (B)G */
if ( (i > WIDTH) && ((i % WIDTH) < (WIDTH-1)) )
{
*scanpt++ = ((long int)*(rawpt+WIDTH)+(long int)*(rawpt-WIDTH))/2; /* R */
*scanpt++ = *rawpt; /* G */
*scanpt++ = ((long int)*(rawpt-1)+(long int)*(rawpt+1))/2; /* B */
}
else /* first line or right column */
{
*scanpt++ = *(rawpt+WIDTH); /* R */
*scanpt++ = *rawpt; /* G */
*scanpt++ = *(rawpt-1); /* B */
}
}
}
else //偶数行
{
if ( (i % 2) == 0 ) //奇数列
{
/* G(R) */
if ( (i < (WIDTH*(HEIGHT-1))) && ((i % WIDTH) > 0) )
{
*scanpt++ = ((long int)*(rawpt-1)+(long int)*(rawpt+1))/2; /* R */
*scanpt++ = *rawpt; /* G */
*scanpt++ = ((long int)*(rawpt+WIDTH)+(long int)*(rawpt-WIDTH))/2; /* B */
}
else
{
/* bottom line or left column */
*scanpt++ = *(rawpt+1); /* R */
*scanpt++ = *rawpt; /* G */
*scanpt++ = *(rawpt-WIDTH); /* B */
}
}
else
{
/* R */
if ( i < (WIDTH*(HEIGHT-1)) && ((i % WIDTH) < (WIDTH-1)) )
{
*scanpt++ = *rawpt; /* R */
*scanpt++ = ((long int)*(rawpt-1)+(long int)*(rawpt+1)+
(long int)*(rawpt-WIDTH)+(long int)*(rawpt+WIDTH))/4; /* G */
*scanpt++ = ((long int)*(rawpt-WIDTH-1)+(long int)*(rawpt-WIDTH+1)+
(long int)*(rawpt+WIDTH-1)+(long int)*(rawpt+WIDTH+1))/4; /* B */
} else {
/* bottom line or right column */
*scanpt++ = *rawpt; /* R */
*scanpt++ = ((long int)*(rawpt-1)+(long int)*(rawpt-WIDTH))/2; /* G */
*scanpt++ = *(rawpt-WIDTH-1); /* B */
}
}
}
rawpt++;
}
}
上一篇:用单触发延时改善微处理器的复位电路
下一篇:爱特梅尔推出新型Cortex-M4微控制器
推荐阅读最新更新时间:2024-03-16 13:09