视频传输范文

时间:2023-03-15 14:38:42

视频传输

视频传输范文第1篇

关键词:蓝牙;无线传输;MPEG-4;MJPEG

中图分类号:TN9198 文献标识码:B

文章编号:1004373X(2008)0101803オ

Design of Wireless Video Transmission System

WANG Yingli,ZHUANG Yiqi,TANG Hualian,LI Cong

(School of Microelectronics,Xidian University,Xi′an,710071,China)

Abstract:This paper presents the design of a wireless video transmission system.The transmitting part is designed on the basis of TI′s Open Multimedia Application Platform(OMAP).The receiving part is controlled by common PC.The video data we collected is encoded by the MPEG[CD*2]4 or MJPEG standard,and the encoded bitstream is transferred by Bluetooth.For the MPEG[CD*2]4 bitstream,the frame rate can reach 30 f/s and the transmission distance can reach 100 meters.For the MJPEG bitstream,the picture with high quality is received.When the receiving part receives data only and doesn′t decode the data,the stable transmission speed can reach 1.1Mb/s in 80 meters.

Keywords:bluetooth;wireless transmission;MPEG[CD*2]4;MJPEG

1 引 言

随着无线通信技术和视频压缩技术的迅速发展,使得无线视频传输成为人们研究的热点。目前的短距离无线通讯技术有蓝牙、红外、IEEE 802.11无线局域网技术、HomeRF家用无线局域网技术、Zigbee技术和UWB技术等。与其他技术相比,蓝牙具有成本低、功耗低、体积小和应用范围广泛等特点[1],但其带宽有限,而视频信息的数据量十分惊人,要实现无线视频传输,必须对视频信息进行压缩编码。现有的视频压缩标准如MPEG[CD*2]4,H.263和H.264等都可以满足无线实时视频传输系统的要求。

基于以上考虑,本文设计了一个无线视频传输系统,说明了该系统的硬件架构和软件设计,并进行了实验测试和数据分析。

2 硬件架构

系统硬件的实现方案为:发送端由摄像机,专用视频编码芯片、OMAP5910和蓝牙模块CLASS1(BC04)等部分组成。该蓝牙模块,发射功率约为100 mW(20 dBm),支持蓝牙2.0+EDR协议,最高传输速率为3 Mb/s,传输距离可达100 m,天线是普通的微带天线。

视频编码部分使用专用视频编码芯片。该芯片通过USB口供电和传输数据,输出的视频码流可以是MPEG[CD*2]1,MPEG[CD*2]2,MPEG[CD*2]4,MJPG或者H.263格式,输出图像的分辨率范围为64×64~720×576,而且可以根据具体需要修改相应寄存器和编码参数的设置。

对于TI OMAP5910 SoC,其主要作用是运行嵌入式Linux操作系统,配置专用视频编码芯片上的控制寄存器,初始化蓝牙模块,运行和蓝牙协议栈相关的应用程序。该SoC有32 MB的SDRAM以及4 MB的FLASH。SDRAM用来运行操作系统,应用程序以及文件系统,FLASH用来存储内核镜像文件和文件系统。OMAP5910 SoC中的ARM925MPU可满足控制和接口方面的处理需要[2]。

接收端由蓝牙模块CLASS1(BC04),PC主机和显示器组成,系统构架如图1所示。

工作过程为摄像机将外界图像转换为视频信号,将视频信号传递给专用视频编码芯片得到标准的MPEG[CD*2]4,MJPEG等格式的码流,然后再将编码后的码流存储到OMAP5910的SDRAM中,最后通过蓝牙模块CLASS1(BC04)发送出去。接收过程为发送的逆过程,通过蓝牙模块CLASS1(BC04)接收到码流数据,PC主机部分再进行存储、解码等处理,最终将解码后的图像送到显示器进行显示。

3 软件设计

3.1 蓝牙协议的软件实现

和许多通信系统一样,蓝牙的通信协议也采用层次式结构。蓝牙协议可以分为4层[3],即核心协议层、电缆替代协议层、电话控制协议层和可选协议层。蓝牙的核心协议包括基带协议(Baseband)、链路管理协议(LMP)、逻辑链路控制与适应协议(L2CAP)以及业务搜寻协议(SDP)四部分;电缆替代协议层包括基于TS 07.10的RFCOMM协议;电话控制协议层包括TCS二进制、AT命令集;可选协议根据不同的应用可以包括很多,例如PPP,UDP/TCP/IP,OBEX,WAP,vCard,vCal,IrMC以及WAE等。

除上述协议层外,规范还定义了主机控制器接口HCI(HostControl Interface),他为基带控制器、链路管理器、硬件状态和控制寄存器提供命令接口。以HCI作为分界线,将蓝牙协议分为底层和应用层。通过HCI来实现底层和应用层的连接。

蓝牙通信的具体实现方案有多种,既可以全部由硬件芯片来实现,也可以采用硬件和软件结合的方法。本系统采用硬件和软件相结合的方法,其中基带和链路管理由蓝牙模块CLASS1(BC04)实现,并通过HCI交互;L2CAP和SDP等采用软件实现。蓝牙软件协议栈在系统中的实现如图2所示。蓝牙视频码流的发送是当发送端和接收端建立ACL链接后,通过SPP(Serial Port Profile)层应用框架进行传输。

3.2 发送端的软件设计

发送端的软件包括嵌入式Linux操作系统,蓝牙软件和其他应用程序。根据发送端的硬件架构和数据流动方向设计的软件流程图如图3所示。发送端首先将FLASH中的内核镜像文件解压到SDRAM中,并运行操作系统,然后初始化蓝牙模块和配置专用编码芯片,当和接收端建立好ACL链路后,发送端分为两个进程,一个用于采集数据和编码,另一个用于码流的转存和发送,整个系统开始工作。应用程序主要是配置专用视频编码芯片来实现不同的视频编码模式,参数的设置必须和蓝牙的传输速率匹配,图像传输的实时性才能得到保证。

3.3 接收端的软件设计

接收端的软件包括MPEG[CD*2]4解码程序,MJPEG(运动的JPEG图像,即一张张的JPEG图像的连续播放)解码程序和蓝牙协议栈等相关程序。接收端的简易流程图如图4所示。接收端首先初始化蓝牙模块,根据发送端蓝牙模块的地址与发送端建立ACL链路,然后向发送端发送消息,接收码流数据,并解码和显示,整个通信系统建立起来。

通过多线程技术实现了蓝牙接收数据和视频解码的同步运行,主程序包括蓝牙接收数据线程和解码(包括视频显示)线程。由于在Linux系统中一个进程中的线程之间可以共享一些全局变量,这样通过设计全局的缓存就可以实现解码线程和蓝牙数据接收线程之间数据的交换。由于解码器的速度大于蓝牙接收数据的速度,可以在解码函数中增加一些必要的等待语句(主要是等待码流数据),来实现两个线程之间的同步。接收端的线程如图5所示,在创建解码线程前,先进行视频模式的选择,根据不同的视频模式,创建解码线程时调用不同的解码函数。

4 实验结果和分析

系统传输速率的测试,当发送端不停地发送数据,而接收端只进行数据的接收、速率统计,而不进行解码时,特定位置上的传输速率如表1所示,整个测试过程是在空旷地进行的,取多次数据的平均值,通信距离可以达到110 m,增大蓝牙模块的发射功率和天线的增益可以进一步提高蓝牙的传输距离。

通过表1可以看到,80 m范围内传输速率都比较稳定,在11 Mb/s左右。随着距离的增加,传输速率在80 m后下降比较快。在距离100 m时传输速率也能达到803 kb/s。但是蓝牙模块CLASS1(BC04)理论上能达到3 Mb/s的传输速率,实际上在80 m内的最高传输速率为12 Mb/s左右。在传输速率方面,研究发现蓝牙传输的每一包的数据量的大小对速率影响比较大。当每一包的数据量的大小为1 510×8 b时传输速率不到1 Mb/s。当每一包的数据量的大小为3 040×8 b时,传输速率最高可以达到12 Mb/s左右。

最终通过配置专用视频编码芯片实现了三种模式的实时视频传输:模式1:采用MPEG[CD*2]4编码,图像分辨率为352×288,传输的速率为512 kb/s,帧率为30 f/s;模式2:采用MPEG[CD*2]4编码,图像分辨率为496×384,传输的速率为768 kb/s,帧率为30 f/s;模式3:采用MJPEG编码,图像分辨率为640×480,帧率为2 f/s,此种模式的传输速率主要受信道影响,不用配置。在发送端与接收端距离为20 m时进行测试,主观图像质量非常好,三种视频模式下的实验结果如表2所示。

对于模式1和模式2,延迟时间都在100 ms以内,基本上满足实时性的要求。模式3的传输数据量比较大,图像质量比较高,但帧率比较低,延迟较大。

当发送端与接收端距离为100 m时,进行测试,得到的实验数据如表3所示。此时模式1和模式2图像质量也比较好,实时性也很好。但模式3丢包严重,图像质量比较差,与其传输的数据量太大有关。

关于图像质量方面,由于无线信道是一种时变信道,存在多径衰落,位差错率很高;压缩后的视频流是可变速率的,在网络拥塞或数据突发时,丢包严重;当前广泛应用

的低码率视频应用中的视频压缩标准,如H.263/H.26L/H.264、MPEG[CD*2]2/4等,使用预测编码和可变长度编码去减少帧间的时间和统计冗余,这些措施可增大压缩率,但会造成视频信号受传输错误的影响[4]。

对于模式1和模式2,码流格式为MPEG[CD*2]4,由I帧(intra[CD*2]frame)和P帧(inter[CD*2]frame)构成。I帧是独立编码的,没有采用任何参考帧,可独立解码,每隔一定时间出现一次;P帧是当前帧和前面的P帧或I帧的差值编码构成的。如果编码时全是I帧,很少会出现图像花的情况,但由于I帧的数据量比P帧的数据量大,传输的帧率不会太高,但P帧数量如果太多,尽管帧率可以提高,但P帧使用预测编码,一旦出现丢包现象,图像质量会严重变坏,直到I帧才可以恢复。经过测试两个I帧之间有5个P帧可以得到最佳的图像质量和很高的帧率。对于模式3,码流格式为MJPEG格式,可以认为每一帧都为I帧,传输的数据量较大,但图像质量比较高。

5 结 语

本文对无线视频传输系统的硬件架构和软件设计都进行了详细地说明,实现了三种视频模式,前两种模式使用MPEG[CD*2]4编码,延迟只有100 ms,实时性达到了要求,传输距离可以达到100 m,帧率能达到30 f/s。模式3使用MJPEG编码,图像质量比较高,帧率可以进一步提高。本文还探讨了影响图像质量和传输速率等因素,当接收端不进行解码时的最高传输速率为12 Mb/s。本系统成本低、图像质量高,可以应用到视频监控,多媒体娱乐等许多领域。

参 考 文 献

[1]马建仓,罗亚军,赵玉亭.蓝牙核心技术及应用[M].北京:科学技术出版社,2003.

[2]OMAP1510 Multimedia Process Technical Reference Manual[EB/OL].2002.

[3]Bluetooth Special Interest Group.Bluetooth Specification Version 2.0+EDR[S].November,2004.

[4]陈敏.网络实时视频传输研究[D].广州:华南理工大学,2004.

[5]刘嘉,庄奕琪,汤华莲.蓝牙视频传输系统设计[J].现代电子技术,2006,29(17):18-20.

[6]鲍立,庄奕琪.基于蓝牙的MPEG[CD*2]4无线视频传输研究[J].电子科技,2003(23):36-38,40.

[7][美]Jerry D G.多媒体数字压缩原理和标准[M].李煜晖,朱山风,段上为,等译.北京:电子工业出版社,2000.

[8]沈兰荪,田栋.无线视频传输技术的发展[J].电子技术应用,2001,27(1):6[CD*2]9.

[9]李建,别红霞.H.263无线视频传输的关键技术改进[J].计算机工程与应用,2006,42(3):152-154,160.

视频传输范文第2篇

关键词 监控系统视频传输方式

中图分类号: U672.7+4 文献标识码:A 文章编号:

目前,在监控系统中用来传输图像信号的介质主要有同轴电缆、双绞线和光纤,对应的传输设备分别是同轴视频放大器、双绞线视频传输设备和光端机。要组建一个高质量的监控网络,就必须搞清楚这三种主要传输方式的特点和使用环境,以便针对实际工程需要采取合适的传输介质和设备。以下简单介绍以上三种传输介质。

1 同轴电缆和视频放大器

根据对同轴电缆自身特性的分析,当信号在同轴电缆内传输时其受到的衰减与传输距离和信号本身的频率有关。一般来讲,信号频率越高,衰减越大。视频信号的带宽很大,达到6MHz,并且,图像的色彩部分被调制在频率高端,这样,视频信号在同轴电缆内传输时不仅信号整体幅度受到衰减,而且各频率分量衰减量相差很大,特别是色彩部分衰减最大。 所以,同轴电缆只适合于近距离传输图像信号,当传输距离达到200米左右时(根视频线缆的粗细有关),图像质量将会明显下降,特别是色彩变得暗淡,有失真感。在工程实际中,为了延长传输距离,要使用视频放大器。视频放大器对视频信号具有一定的放大,并且还能通过均衡调整对不同频率成分分别进行不同大小的补偿,以使接收端输出的视频信号失真尽量小。但是,视频放大器并不能无限制级联,一般在一个点到点系统中视频放大器最多只能级联2到3个,否则无法保证视频传输质量,并且调整起来也很困难。因此,在监控系统中使用同轴电缆时,为了保证有较好的图像质量,一般将传输距离范围限制在四、五百米左右。

2 双绞线和双绞线视频传输设备由于传统的同轴电缆监控系统存在着一些缺点,特别是传输距离受到限制,所以寻求一种经济、传输质量高、传输距离远的解决方案十分必要。早期,在传输距离超过五、六百米的监控系统中一般使用多模光纤和多模光端机,这虽然解决了远距离传输的问题,但是系统造价增加了很多,并且,光纤的施工复杂,需要专业人员和专用设备。所以,对这种距离不是太远的监控系统而言,使用光纤和光端机还是显得不够经济。

最近,出现了一种双绞线视频传输设备,通过使用此种设备,可以将双绞线应用于监控图像传输,它很好地解决了上面的难题,在今后的监控系统中必将被大量使用。 其实,双绞线的使用由来已久,电话传输使用的就是双绞线,在很多工业控制系统中和干扰较大的场所以及远距离传输中都使用了双绞线,我们今天广泛使用的局域网也是使用双绞线对。双绞线之所以使用如此广泛,是因为它具有抗干扰能力强、传输距离远、布线容易、价格低廉等许多优点。由于双绞线对信号也存在着较大的衰减,所以传输距离远时,信号的频率不能太高,而高速信号比如以太网则只能限制在100m以内。对于视频信号而言,带宽达到6MHz,如果直接在双绞线内传输,也会衰减很大。因此,视频信号在双绞线上要实现远距离传输,必须进行放大和补偿,双绞线视频传输设备就是完成这种功能。加上一对双绞线视频收发设备后,可以将图像传输到1至2km,如果采用中继方式,还可以成倍增加传输距离,而且,传输图像的质量可以与光端机媲美。双绞线和双绞线视频传输设备价格都很便宜,不但没有增加系统造价,反而在距离增加时其造价与同轴电缆相比下降了许多。

3 光纤和光端机

光纤和光端机应用在监控领域里主要是为了解决两个问题:一是传输距离,一是环境干扰。双绞线和同轴电缆只能解决短距离、小范围内的监控图像传输问题,如果需要传输数公里甚至上百公里距离的图像信号则需要采用光纤传输方式。另外,对一些超强干扰场所,为了不受环境干扰影响,也要采用光纤传输方式。因为光纤具有传输带宽宽、容量大、不受电磁干扰、受外界环境影响小等诸多优点,一根光纤就可以传送监控系统中需要的所有信号,传输距离可以达到上百公里。光端机可以提供一路和多路图像接口,还可以提供双向音频接口、一路和多路各种类型的双向数据接口(包括RS232、RS485、以太网等),将它们集成到一根光纤上传输。光端机为监控系统提供了灵活的传输和组网方式,信号质量好、稳定性高。近些年来,由于光纤通信技术的飞速发展,光纤和光器件的价格下降很快,使得光纤监控系统的造价大幅降低,所以光纤和光端机在监控系统中的应用越来越普及。

光纤分为多模光纤和单模光纤两种。多模光纤由于色散和衰耗较大,其最大传输距离一般不能超过5Km,所以,除了先前已经铺好了多模光纤的地方外,在新建的工程中一般不再使用多模光纤,而主要使用单模光纤。

光纤中传输监控信号要使用光端机,它的作用主要就是实现电-光和光-电转换。光端机又分为模拟光端机和数字光端机:(1)模拟光端机

模拟光端机采用了FM调制技术实时传输图像信号,是目前使用较多的一种。发射端将模拟视频信号先进行FM调制后,再进行电-光转换,光信号传到接收端后,进行光-电转换,然后进行FM解调,恢复出视频信号。由于采用了FM调制技术,其传输距离很容易就能达到30 Km左右,有些产品的传输距离可以达到60 Km,甚至上百公里。并且,图像信号经过传输后失真很小,具有很高的信噪比和很小的非线性失真。通过使用波分复用技术,还可以在一根光纤上实现图像和数据信号的双向传输,满足监控工程的实际需求。

(2)数字光端机

由于数字技术与传统的模拟技术相比在很多方面都具有明显的优势,所以正如数字技术在许多领域取代了模拟技术一样,光端机的数字化也是一种必然趋势。目前,数字图像光端机主要有两种技术方式:一种是MPEG系列图像压缩数字光端机,另一种是非压缩数字图像光端机。

图像压缩数字光端机一般采用MPEG II图像压缩技术,它能将活动图像压缩成N×2Mbps的数据流通过标准电信通信接口传输或者直接通过光纤传输。由于采用了图像压缩技术,它能大大降低信号传输带宽,以利于占用较少的资源就能传送图像信号。同时,由于采用了N×2Mbps的标准接口,可以利用现有的电信传输设备的富裕通道传输监控图像,为工程应用带来了方便。不过,图像压缩数字光端机也有其固有的缺点。其致命的弱点就是不能保证图像传输的实时性。因为图像压缩与解压缩需要一定的时间,所以一般会对所传输的图像产生1-2S的延时。因此,这种设备只适合于用在对实时性要求不高的场所,在工程使用上受到一些限制。另外,经过压缩后图像会产生一定的失真,并且这种光端机的价格也偏高。

总之,传送图像监控信号除了以上介绍的三种主要方式外,也有些工程中采用了点到点无线传输(微波)方式以及有线电视(射频线缆)上采用的多路副载波复用射频传输方式。无线传输受环境和气候影响太大,工作不稳定,而且设备安装调整困难;多路副载波复用射频传输方式需要的设备多,稳定性不高,图像质量较差,设备安装调整也很困难。所以,这两种设备使用得很少,也不推荐用户使用。对于同轴电缆、双绞线和光纤三种传输方式,用户可以根据工程实际情况选用。一般来说,距离在二、三百米以内,并且无环境干扰、布线空间大的场所,可以考虑使用电缆;当传输距离在两公里以内,或者环境干扰大、布线要求紧凑的场所,建议使用双绞线;距离达到几公里或更远时,光纤就是必然选择了。当然,工程实际中,不少用户不管距离远近,在同一个工程中统一使用光纤,或者在距离较近的工程中统一使用双绞线,这完全由工程的实际需要确定。

参考文献:

[1] 张玲,俎云霄,路秋生.双绞线传输在闭路电视监控系统中的应用[J]. 电视技术. 2009(10)

视频传输范文第3篇

关键词:网络 视频传输

Internet网络的飞速发展与普及为媒体业的发展提供了强大的市场动力,例如,现代社会的网络电视、视音频会议以及IP可视电话等流媒体业务的发展,其关键的传输技术支撑便是现代网络技术。下面,文章将对此进行深入讨论。

1、视频编解码技术

1.1 H.261

H.261是1990年ITU-T制定的一个视频编码标准,属于视频编解码器。其设计的目的是能够在带宽为64kbps的倍数的综合业务数字网上传输质量可接受的视频信号。H.261在实时编码时比MPEG所占用的CPU运算量少得多,此算法为了优化带宽占用量,引进了在图像质量与运动幅度之间的平衡折中机制,也就是说,剧烈运动的图像比相对静止的图像质量要差。因此这种方法是属于恒定码流可变质量编码而非恒定质量可变码流编码。

1.2 H.263

H.263标准在低码率下能够提供比H.261更好的图像效果,但是两者存在一定的区别,如:①H.263的运动补偿使用半像素精度,而H.261则用全像素精度和环路滤波;②数据流层次结构的某些部分在H.263中是可选的,使得编解码可以配置成更低的数据率或更好的纠错能力;③H.263包含四个可协商的选项以改善性能;④H.263采用无限制的运动向量以及基于语法的算术编码;⑤采用事先预测和与MPEG中的P-B帧一样的帧预测方法;

1.3 MPEG-1

MPEG-1是MPEG组织制定的第一个视频和音频有损压缩标准,它曾经是VCD的主要压缩标准,是目前实时视频压缩的主流,可适用于不同带宽的设备,如CD-ROM、Video-CD、CD-I。但也存在着诸多不足,如压缩比还不够大、图像清晰度还不够高等。

1.4 MPEG-2

MPEG-2是在MPEG-1的基础上进行扩展,它也包括系统、视频和音频等部分。MPEG-2系统的作用是将一个或更多个视频、音频或其它的基本数据流合成单个或多个数据流,以便于存储和传输。它支持五项基本功能:①同步多基本流;②将多个基本流交织成单个数据流;③初始化解码缓冲区;④缓冲区管理;⑤时间识别。

1.5 MPEG-4

MPEG-4与MPEG-1和MPEG-2的主要区别在于MPEG-4与应用的级别有关,它是基于对象编码的,即将在网络上传送的内容定义为媒体对象和情景描述的构架;除了视频和音频以外,还允许将不同类型的内容包含在MPEG-4中,比如动画、计算机产生的三维物体等等,而MPEG-1和MPEG-2不仅与音视频和码流有关。在MPEG-4中,构成媒体景象的每一个组件被认为一个媒体对象,它具有代表组件的表象和在媒体景象中的位置的时域和空域属性。

2、视频网络传输技术

2.1 通信网络基础设施

数字视频网络传输的实现是以通信网络为前提的,离开了通信网络基础设施,数字视频网络传输就无从谈起。在当前可供使用的通信网络中,按类型来划分有线路交换网络、分组交换网络、ATM网络和无线网络几大类。线路交换网络又可进一步划分为同步光纤网SONET/SDH、密集波分复用网DWDM、光纤到户FTTH、数字用户线路xDSL和混合光纤同轴线缆HFC等,无线网络包括微波无线网络、数字蜂窝无线网络和通信卫星网络等。

2.2 网络传输技术

尽管组网技术千差万别,但对于应用层所采用的传输协议来说,目前可用的面向多媒体能力的网络基本上是IP和ATM两种。

IP网络协议原先不是设计用来做多媒体通信的,它不能保证诸如带宽、延迟和延迟抖动这样的QoS要求。为了让IP网络技术具有多媒体通信能力,目前的IP协议已作了很大的扩展,增加了诸如实时传输协议RTP和ST-II和资源预留协议RSVP这样的新协议,并使IP协议具备多投点(Multicast)、实时投递、集成服务和QoS等能力。

2.2.1 IP多投点技术的特点

IP多投点技术允许路由器一次将数据包复制到多个通道上,它采用多投点技术,单台服务器可以将几十万台客户机同时发送连续的数据流而无延迟,服务器只需要发送一个数据包,所有发出请求的客户机共享同一数据包,从而减少网络上的信息包的总量,大大提高网络的利用率。

2.2.2 实时传输协议RTP

RTP是用在Internet上针对多媒体数据流的一种传输协议,它被定义为在单投点或多投点传输的情况下工作,其目的是提供时间信息和实现流的同步。RTP通常使用UDP来传输数据,但它也可以在TCP和ATM等其它协议之上工作。

2.2.3 ATM技术的特点

ATM是一种快速分组交换技术,它采用异步分时复用方法将信息流分成固定长度的信元进行高速交换。ATM技术采用全新的不同于ISO协议的参考模型,由4个协议层组成,即用户层、ATM适配层、ATM层和ATM物理层。物理层负责信息传输;ATM层负责交换、路由选择和信元复用;ATM适配层负责将各种业务的信息适配成ATM信元流;用户层支持各种用户服务。

ATM的最大优点在于它是一种通用的与服务无关的交换和多路复用技术,独立于基础的传输技术和速率,而且能够提供范围广泛的服务质量QoS控制机制。ATM技术已被国际电联确定为传输语音、数据、视频及多媒体信息的新工具。

参考文献

[1]杨志伟,冯宗哲,郭宝龙.实时视频网络传输系统实现技术[J].电讯技术,2005(8).

[2]杨征,袁琦.视频通信技术的发展与应用[J].电信网技术,2005(05).

视频传输范文第4篇

关键词:ARINC818 航空数字视频总线 航空电子系统 拓扑 模块化

中图分类号:TP336 文献标识码:A 文章编号:1007-9416(2016)11-0154-01

在现代航空电子技术领域,电子系统迅速升级,网络结构越来越复杂,整个系统内部交互的数字化信息量与日俱增,作为航空电子系统“神经”的总线技术成为制约其技术发展的关键因素之一[1]。传统的MIL-STD-1553B、ARINC429等总线已不再适用于当下综合化极高的航空电子系统,1Mbps左右的传输速率远远不能满足高速、实时性、大容量数字视频信息传输的需求[2]。因此,为了进一步提高航空电子系统模块化、集成化程度,必须开发新一代的航空数据总线技术。而ARINC818标准规定的一个新的数字视频接口和协议标准,势必成为今后航空电子系统总线的发展趋势。

1 ARINC818拓扑结构及特点

ARINC 818 被称为航空数字视频总线(ADVB, Avionics Digital Video Bus),是针对航空电子系统中非压缩数字视频传输制定的接口标准。ARINC 818基于光纤通道协议(FC),对FC-AV协议内容进行简化而生成的。因此,FC协议和FC-AV协议是ARINC 818总线协议的基础。光纤通道具有高可靠性、高带宽、高实时性的特点,在数据延迟、带宽、错误检测、远距离传输等方面均适合作为航空电子系统的数据总线。

ARINC818是点对点拓扑结构、采用8B/10B编码的串行音视频传输协议。该协议架构和FC基本相同,由五个标准层构成:FC-0Physical (物理链路层)、FC-1Code(编解码层)、FC-2 Protocol (协议控制层)、FC-3 Management (通用服务层)和FC-4 Mapping (高层协议映射层)。

ARINC818总线在传输速率、传输距离等关键技术方面具有独特的优势,已经在航空电子视频传输系统中起到关键作用,并且在空客A400M和波音787等重大商业项目中得到验证。ARINC818与其它视频总线比较如表1所示。

ARINC 818总线技术由于其独特的技术优势,必将成为新型航空电子视频系统的主流技术。深入研究和开发ARINC818总线技术,对我国军事和商业航空电子视频领域的技术发展具有深远的意义。

2 系统总体方案设计

在航空电子视频传输系统中,要求能够把视频传感器(包括红外线传感器、飞行录像机、光感照相机、摄像机等)取得的视频信息在光纤网络中准确高速地传输,并能够在接收端实时恢复显示。根据这一要求,提出了基于ARINC818总线协议的视频传输系统设计方案。

本方案设计的视频传输系统主要包括ADVB发送器、ADVB接收器和ADVB显示终端三个功能模块,而底层FC物理层、光电转换等功能是用Xilinx公司的IP核实现。

2.1 ADVB发送器设计

ARINC 818发送器的主要功能是将写入该模块的视频数据封装为ADVB帧并提供给底层链路发送。本模块的工作方式有行同步(Line Synchronous)和非行同步(No-line Synchronous)两种类型。

2.2 ADVB接收器设计

ARINC 818接收器的主要功能是接收来自光纤网络的ADVB帧,进行帧解析后,对帧的传送状态进行判断。解析后得到视频的辅助信息数据和像素数据,辅助信息数据能够正确地标识出接收到视频的格式,为视频的恢复显示提供依据。像素数据的去向有两种,一是被存储以便管理;另一种是由显示终端恢复视频显示,查看接收到的视频数据质量。

2.3 ADVB显示终端设计

显示终端是整个视频传输系统的终端,它的作用主要是根据ADVB顿的传送状态、帧与帧之间的Idle数量恢复出视频显示的行场同步信号,依据视频编码芯片Sil164对RGB视频数据的要求进行重组,最终在显示器上正确地恢复视频显示,与发送器的视频源比较,则可得知视频传输系统的工作状态是否正常。

3 实验及测试数据

在实验系统中,数据源选择一组自定义的RGB数据,描述了分辨率为1024×768@60Hz格式的图像,其中,白、蓝、绿、红四种颜色等间距的竖条纹排列。RGB数据经过电路板上的PCIe接口进入FPGA,在片内按ARINC818协议完成ADVB帧封装及帧发送控制,最后发送到光发送模块;光纤网络采用环回模式,光接收模块接收的数据流通过驱动芯片后,最终在显示器上恢复显示图像。

4 结语

本文针对ARINC818总线协议、拓扑结构以及协议特点进行深入的分析和研究,并对ARINC818与其它总线进行了比较说明。另外,从系统的总体设计方案出发,详细阐述了发送器、接收器和显示终端的设计框架和流程。最后,依据实验室情况搭建了测试环境,最终验证了设计的可行性、正确性,达到了预期目标和要求。

参考文献

[1]王红春.基于FC的航电数字视频传输技术研究[J].计算机技术与发展,2010(5):250-253.

视频传输范文第5篇

关键词: 无线网络; ARM; 嵌入式操作系统; 视频传输

中图分类号: TN919.8?34 文献标识码: A 文章编号: 1004?373X(2013)15?0029?03

0 引 言

随着通信技术和计算机网络技术的发展,基于嵌入式的视频传输系统得到了广泛的应用,但是目前大部分嵌入式视频传输系统都是采用有线网络传输[1],有线网络传输系统存在线路布设复杂、成本高、施工周期长、移动性差等缺陷。由于无线网络传输速率的提高,无线视频传输逐渐成为人们研究的热点。与传统的有线网络视频传输相比,无线网络视频传输系统安装便捷、使用灵活、维护方便、易于扩展、性价比高,逐渐成为视频传输系统研究开发的主流。无线视频传输系统可以广泛地应用于视频监控、信息家电、智能小区、远程抄表等领域,因此对无线视频传输系统的开发和研究有着重要的意义。

目前,无线视频传输系统的研究开发还处于起步阶段,研究者在设计实现系统的过程中对软硬件资源的选型、关键技术的选择不尽相同,本文在总结现有研究工作的基础上,比较分析了各种技术方案,介绍了无线视频传输系统的现状并展望了其发展趋势。

1 无线网络接入方式

目前,无线网络接入方式主要有:2G的GPRS[2],3G的CDMA [3?5],和以WiFi技术为代表的无线局域网[6?9]。

无线视频传输对于误码率、切换效率、时延、带宽稳定性等方面要求较高,欧洲、美国、韩国一些国家已经运营基于2G网络的家庭无线移动监控业务,但由于无线网络带宽受限,存在时延较大和图像清晰度差的问题,效果不尽如人意[5]。国内的一些研究者也有采用GPRS网络进行无线视频传输的,但是成功案例并不多。

3G网络高至2 Mb/s的速率将为无线视频传输提供有力的支持,无线网络带宽的瓶颈再一次被突破。3G主要的技术优点是极大地增加了系统容量、提高了通信质量和数据传输速率,不少研究者在此基础上研究设计无线视频传输系统,实现了相比于2G更高清晰度、更加流畅的视频图像。

基于IEEE802.11协议的无线局域网WLAN可以提供高达54 Mb/s的传输速率,其带宽足以应对视频数据的传输。WLAN具有安装便捷、维护方便、易于扩展、保密性强等特点,相较于其他无线接入方式还具有经济性好、部署容易、局部最优等优势。因此,许多研究者采用无线局域网络进行无线视频传输,并取得较理想的实验效果。

以上的无线网络接入方式各有特色,但也存在各自的问题[10]:

(1)基于2G/3G无线移动网络的视频传输系统业务承载速率较低,画面清晰度差;

(2)基于WLAN无线局域网的视频传输系统的摄像头无法满足摄像前端高速跨区移动的需求。

LTE作为3G的长期演进,在当前的移动行业无疑是最引人关注的话题。其下行峰值速率为100 Mb/s、上行峰值速率为50 Mb/s,被视作从3G向4G演进的主流技术。未来即将成熟的LTE?Advanced,下行峰值速率为1 Gb/s、上行峰值速率为500 Mb/s。因此,基于LTE的无线网络带宽完全可以与有线网络媲美。

LTE/LTE?Advanced具有高带宽、低时延、低成本等优势,比其他无线网络更加适合大规模开展无线视频传输业务。基于LTE/LTE?Advanced的无线视频传输系统主要有以下特点[10]:实现高清视频图像传输;实现高质量视频传输业务的移动化;保障视频传输设备的小型化。

采用LTE网络进行无线视频传输可有效解决当前无线视频传输面临的主要问题,为用户提供低成本高清晰度的视频图像,可以应用于车载、即摄即传、工地及其他偏远地区的视频监控等行业,未来必将极大地带动无线视频传输业务的发展[11]。

2 嵌入式处理器

在无线视频传输系统设计中,嵌入式处理器作为主控单元,实现各个模块之间的调度,其性能好坏影响整个系统。所以,要根据系统的功能,对所需的硬件进行综合的考虑与选择。

嵌入式处理器种类繁多,常见的有MIPS、DSP、ARM、Power PC等系列。ARM处理器具有高性能、低成本、低功耗的特点,目前应用最为广泛。在无线视频传输系统的设计中,常用的嵌入式处理器内核主要有ARM7, ARM9 [6,8?9], ARM11[2,7]。

相较于ARM7,ARM9在高性能和低功耗方面提供了最佳的配合,其时钟频率更高,有MMU(内存管理单元),能更好地支持Linux、WinCE等大型的操作系统。而ARM7没有MMU,只能运行小型的系统如μClinux、eCos等。

ARM11处理器在提供超高性能的同时,还保证了低功耗、小面积。其媒体处理能力和低功耗特点,特别适用于无线和消费类电子产品。

然而,在无线视频传输系统设计中,嵌入式处理器的选取主要从以下三方面考虑:性能稳定,能够满足系统需求;成本低,经济实用;方便功能扩展。由于ARM9在高性能和低功耗方面提供了最佳的配合,既能满足系统要求,又具有较成熟、广泛的应用,因此,ARM9更经济实用,更具有市场竞争力,成为无线视频传输系统中最常用的处理器。

3 嵌入式操作系统

嵌入式操作系统(Embedded Operating System,EOS)是嵌入式系统的操作系统,负责嵌入式系统全部软件和硬件资源的分配、任务调度,控制、协调并发程序,通过装卸某些功能模块来达到系统所要求的功能。常见的嵌入式操作系统有Linux [2,6-9],WinCE,VxWorks等。

3.1 嵌入式Linux

嵌入式Linux是将标准的Linux操作系统进行裁剪修改,使之运行在嵌入式设备上的一种操作系统。它以自身的诸多优势,在嵌入式领域中已成为应用最广泛的操作系统。

嵌入式Linux具有的优势如下:

(1)内核精简,各部分的功能明确,可扩展性强,容易剪裁;

(2)源代码完全开放,软件支持广泛,开发环境良好;

(3)性能稳定,适应多种CPU和硬件平台;

(4)网络通信功能完善,支持千百兆以太网、无线网络、光纤等。

3.2 WinCE

WinCE是微软公司开发的一个多任务、多线程、完整优先权的嵌入式操作系统,它与Windows系统有很好的兼容性,通信功能强大,支持多种CPU。但是由于其源代码是非公开的,因此使用该操作系统需要版权费用,且价格较高,这使得产品的开发成本也随之提高。此外,该系统还存在可定制性差、应用程序庞大、占用内存大等缺点。

3.3 VxWorks

VxWorks系统是1983年美国WindRiver公司研发的一种嵌入式操作系统,具有良好的实时性、可靠性、可剪裁性、微秒级中断处理和开发环境友好等诸多的优势。它以其高可靠性和良好的实时性被广泛地应用在军事通信、航空航天、弹道制导、飞机导航等高精尖技术领域中。但是该操作系统存在着费用昂贵的弊端,且其局限性太强。

4 视频传输协议

目前网络传输协议主要有TCP协议[7]和UDP协议两种,而TCP协议的应用最为广泛。

TCP协议是面向连接的协议,能够保证数据的相对可靠传输,但其传送机制和拥塞控制不能满足实时性传输,一般都采用UDP协议进行实时数据传输。UDP协议是一种无连接、不可靠的传输协议,具有资源消耗小,处理速度快等优点,在视频传输过程中偶尔丢失一两个数据包也不会对接收结果产生太大影响。

虽然UDP协议能够满足传输的实时性,却无法提供差错控制,因此也不适合视频传输。在这种情况下,Internet工程任务组(Internet Engineering Task Force,IETF)提出了实时传输协议(Real?time Transport Protocol,RTP),它是针对Internet上实时数据流的一种传输协议,运行于UDP之上,为数据包提供时间信息和实现流同步。RTP本身只保证实时数据的传输,依靠实时传输控制协议(Real?time Transport Control Protocol,RTCP)提供可靠的传送机制、流量控制和拥塞控制这些服务。因此,RTP和RTCP配合使用特别适合传送实时数据。

由于无线视频传输系统对实时性有较高的要求,为了满足高实时性的特点,许多研究者采用RTP/RTCP协议作为视频传输协议[3?4,6,9]。目前RTP是公认的最好的流媒体实时传输方案。

5 视频编解码

巨大的视频信息量给存储和传输带来极大的困难,因此,在视频进行网络传输前对其进行压缩处理是十分必要的。目前,国内外研究者已提出多种有效的视频编解码技术并制定一系列视频编码标准。

国际上制定视频编码标准主要有两大标准化组织:国际电信联盟(ITU?T)的视频编码专家组(Video Coding Expert Group,VCEG)和国际标准化组织(ISO/IEC)的运动图像专家组(Motion Picture Expert Group,MPEG)。他们针对不同的应用目的,制定形成多个系列的视频编码标准。常见的有ITU?T提出的H.26X系列标准,如H.261,H.262,H.263, H.263+和H.263++等;ISO/IEC提出的MPEG系列标准,如MPEG?1,MPEG?2和MPEG?4等。2003年,这两大视频编码标准化组织联合制定了H.264/AVC。该标准在ITU?T称为H.264;在ISO/IEC则称为MPEG4?Part 10 AVC(Advanced Video Coding)。

H.264/AVC是目前最先进的编码标准,具有高质量、低比特率、高编码效率、网络适应能力强、容错能力强等优点,特别适合应用于无线视频传输中。由于其出色的视频编解码能力,被很多人所青睐[12]。

6 结 语

无线视频传输系统是一个综合性的系统,其发展受制于各种相关技术的发展。在不断发展的嵌入式技术、网络技术和多媒体技术的综合推动下,无线视频传输系统即将进入快速发展期,并朝着产业化、智能化、高清化发展。

参考文献

[1]杨涛.基于S3C2440的网络视频传输系统的设计与实现[D].武汉:武汉理工大学,2012.

[2]LI Dong?jie, YOU Bo, YU Zhi?long, et al. Wireless video transmission system based on ARM [C]// 2012 International Conference on Measurement, Information and Control. Harbin, China: MIC, 2012: 751?755.

[3]石磊.基于3G无线网络的视频监控系统探析[J].计算机光盘软件与应用,2012(9):119?120.

[4]MENG L M, LI J, NI Y J. Design and implementation of wireless video transmission system [C]// 2010 International Conference on Multimedia Technology. Ningbo, China: ICMT, 2010: 1?5.

[5]高九岗.基于TI DaVinci技术的3G移动视频监控系统[D].成都:成都理工大学,2011.

[6]李家清.基于TMS320DM365的嵌入式无线视频传输系统的设计与实现[D].南京:南京邮电大学,2011.

[7]徐驰.基于ARM的无线视频传输系统的设计[J].电子设计工程,2011,19(10):154?156.

[8]张存利,吴怡,黄鸿强,等.基于802.11网络的无线视频传输系统设计[J].现代电子技术,2010,33(4):70?72.

[9]FAN Bin, SHEN Lian?feng, SONG Tie?cheng. The design and implementation of a wireless real?time video transmission system over WLAN [C]// 2009 1st International Conference on Information Science and Engineering. Nanjing, China: ICISE, 2009: 684?687.

[10]章浩.TD?LTE视频监控业务研究[J].电信工程技术与标准化,2010(12):80?84.

[11]焦阳.基于LTE技术的无线视频监控业务[J].中国铁路,2012(8):77?79.

视频传输范文第6篇

【关键词】Socket通信 无线 视频传输

在网络时代,网络通信贯穿于人们生活的方方面面。网络通讯工具的实现、浏览器的进程与web服务器的通信等等,均离不开Socket。Socket一词最早起源于Stephen Carr在1970年2月发表的论文,它通常被翻译为套接字,是存在于应用层和传输层之间的一个抽象层。服务器和客户端各自维护一个“文件”,在建立连接打开后,可以向自己文件写入内容供对方读取或者读取对方内容,通讯结束时关闭文件。

1 Socket通信流程

Socket是“打开―读/写―关闭”模式的实现,其通信流程如下:

(1)服务器根据地址类型(ipv4,ipv6)、Socket类型,协议创建Socket;

(2)服务器为Socket绑定IP地址和端口号;

(3)服务器Socket监听端口号请求,随时准备接收客户端发来的连接,这时服务器的Socket并没有被打开;

(4)客户端创建Socket;

(5)客户端打Socket,根据服务器IP地址和端口号试图连接服务器Socket;

(6)服务器Socket接收到客户端Socket请求,被动打开,开始接收客户端请求,直到客户端返回连接信息。这时Socket进入阻塞状态,所谓阻塞即accept()方法一直到客户端返回连接信息后才返回,开始接收下一个客户端谅解请求;

(7)客户端连接成功,向服务器发送连接状态信息;

(8)服务器accept方法返回,连接成功;

(9)客户端向Socket写入信息;

(10)服务器读取信息;

(11)客户端关闭;

(12)服务器端关闭。

2 建立Socket通信

Socket主要由客户端和服务端两部分构成,通过服务端与客户端建立通信后,由服务端向客户端发送相关的指令。

(1)在服务端,首先需要申请一个Socket,然后把它绑定到一个IP地址和一个端口,开启监听,等待客户端发来的接收连接。

(2)在客户端,也需应该申请一个Socket,然后连接到服务器的指定IP和端口。

(3)服务器端接收到连接请求后,产生一个新的Socket(端口大于1024)与客户端建立连接并进行通信,原监听Socket继续监听。

(4)需要注意一点的是负责通信的Socket是不能无限创建的,创建的数量和操作系统是有关系的。

3 基于Socket的无线视频传输

利用Socket和WiFi技术进行视频传输,需将捕获到的每帧图像进行转码,转成适合Socket传输的byte数组的形式,然后通过Socket通信,在客户端接收从服务端传送过来的视频,并进行实时显示。

(1)在服务端通过调用Marshal类的成员copy函数,把Image类型的图片的尺寸转换到byte数组中,然后发送通过Socket传输发送byte数组到客户端,这部分C#指令如下:

MIplImage mi = image.MIplImage;

byte[] buffer = new byte[mi.imageSize]; //dwBufSize数据长度

Marshal.Copy(mi.imageData, buffer, 0, mi.imageSize); //pBuffer IntPtr类型

Senddata(buffer); //发送图片数据

(2)在客户端通过Socket传输接收到来自服务端的数组byte数组,并通过格式转换,提取数据,还原成imageBox控件能够显示的Image类型,然后就能偶在客户端显示服务端接收到视频了。相关的格式转换代码如下:

//byte数组到IntPtr类型转换

IntPtr imgb =CvInvoke.cvCreateImageHeader(sz, Emgu.CV.CvEnum.IPL_DEPTH.IPL_DEPTH_8U, 3);

GCHandle pinnedArray = GCHandle.Alloc(MsgBuffer, GCHandleType.Pinned);

IntPtr pointer = pinnedArray.AddrOfPinnedObject();

CvInvoke.cvSetData(imgb, pointer, 1920);

pinnedArray.Free();

// IntPtr到IntPtr类型转换

Image image = new Image(sz);

CvInvoke.cvCopy(imgb, image.Ptr, IntPtr.Zero);

disImageBox.Image=image;

(3)调试成功后,打开服务端和客户端的运行程序,然后,点击服务端的Start Server按键,开启服务,在客户端点击点击连接,使服务端与客户端建立通信,然后在服务端点击Start Capture后,服务端会接收到本地摄像头的视频,客户端接收的画面与服务端一致,视频传输完成。

参考文献

[1]高伟,詹胜.基于Socket接口网络通信的实现[J].唐山师范学院学报,2008(05):19-20.

[2]张海深.关于视频编码压缩技术的探讨[J].数字技术与应用,2013(02):12-14.

作者简介

雷阳(1984-),男。博士学位。现为福建省计量科学研究院工程师。主要研究方向为流量计量测试技术及自动控制。

作者单位

1.福建省计量科学研究院 福建省福州市 350003

2.国家蒸汽流量计产品质量监督检验中心 福建省福州市 350003

视频传输范文第7篇

关键词:视频传输;协议;拥塞控制

在视频传输的过程中,可能会由于IP数据流的突发性,当流量大时,网络会发生拥塞,引起丢包、误码,看到的图像中带有不少方块,这样的视频质量时无法让人们接受的。对视频编码技术的要求,不仅仅要压缩比高,而且应在恶劣的传输条件下(包括移动网络的衰落)具有抗阻塞、抗误码的健壮性。

传统的媒体传送方式和数据压缩算法限制了多媒体业务的功能实现,很难满足信道带宽的波动性大、信道的误码率高和视频实时传输的要求。视频是流性质业务,数据量很大。传统的媒体传送方式和数据压缩算法却限制了上述业务的功能实现,很难满足信道带宽的波动性大、信道的误码率高和视频实时传输的要求。

一、基于UDP协议的网络传输层协议选择

传统的TCP/IP协议传输实时音频、视频数据的能力较差。当然在传输用于回放的视频和音频数据时,TCP也是一种选择。如果有足够的缓冲区,和充足的网络带宽,在TCP协议上,接近实时的传输也是可能的,然而如果在丢包率较高、网络状况不好的情况下,此时利用TCP协议进行视频或音频通信几乎是不可能的。

TCP不适合实时音,视频的传输主要有以下几个原因:TCP的重传机制;TCP的拥塞控制机制iTCP报文头比UDP的报文;TCP的启动速度慢。UDP是与TCP同层的协议,它是一个非常简单的协议。UDP启动速度要比TCP快,传输之前不需要建立连接,没有确认机制来确保报文到达,也就没有重传机制。UDP使用底层的互连网协议来传送报文,提供尽量传递的无连接数据报服务,尽管UDP无法保证任何数据报的传递或验证数据报的顺序,但正因如此,它的传输延迟小,在传输效率上要优语TCP,可以用它来传输那些对实时性要求高于其可靠性的实时性数据。

实时视频传输系统中,例如实时监控系统中,重点在于及时收到当前监控画面,不一定要每次都保证视频数据传输的准确到位,而且UDP的组播能力又可以降低网络开销,因此对于实时视频监控来说UDP比TCP更适合于实时视频数据的传输。

所以,对实时视频数据的传输我们采用UDP协议。UDP提供较高的实时性,以牺牲可靠性为代价的,可能产生报文丢失、重复、失序等问题。因此,为了尽量保证传输的可靠性,在UDP协议之上采用专门为实时音,视频传输所设计的RTP/RTCP协议对视频数据进行封装和打包;对于本系统中,TCP协议主要用于控制信息和用户信息的可靠传输。

二、网络实时视频传送协议

(一)RTP协议

使用RTP协议的应用程序运行在RTP之上,而执行RTP的程序运行在UDP的上层,目的是为了使用UDP的端口号和校验和。通常RTP的协议兀是用UDP协议元来装载的,并利用UDP的复用、校验和来实现RTP的复用。由多媒体应用程序生成的声音和视频数据块被封装在RTP信息包中,每个RTP信息包被封装在UDP消息段中,然后再封装在IP数据包中。

RTP协议是专门为交互式话音、视频、仿真数据等实时媒体应用而设计的轻型传输协议,它为应用提供端到端的实时网络传输。但RTP协议本身不提供对实时媒体应用的服务质量保证,需要下层协议提供支持。

RTP协议主要完成网络上实时多媒体数据的传输,而由RTCP协议来负责监视控制。RTP的组成包括:序列号,用来侦测丢失的包;净负荷标识,描述了媒体的编码,它可以被更改以适应带宽的改变;帧指示,标记每一帧的开始与结束;源标识,标识帧的源;媒体内部同步,使用时间戳来侦测一个码流中不同的时延抖动,并对抖动进行补偿。

(二)RTCP协议

RTCP(Rea-Time Control Protocol)实时传输控制协议,它的设计目的是与RTP共同合作,对顺序传输数据报提供可靠的传送机制,并对网络流量和阻塞进行控制。RTCP的组成包括:服务质量(Qos)反馈,包括丢失包的数目、往返时间、抖动,这样,源就可以根据这些信息来调整它们的数据率;会话控制,使用RTCP的BYE分组来告知参与者会话的结束;标识,包括参与者的名字、e-mail地址及电话号码;媒体间同步,同步独立传输的音频和视频流。

在RTP会话期间,各参与者周期性地传送RTCP包,包中含有已发送的数据包的数量、丢失的数据包的数量等统计信息,因此,服务器可以利用这些信息动态的改变传送速率,甚至改变载荷类型。

三、结束语

TCP/UDP是传输层协议,但无法满足音视频传输的需要。RTP/RTCP是建立在UDP基础上的传输层协议,RTP能根据RTCP的反馈信息动态调整码流速率以适应网络带宽的变换,能很好地为音视频传输服务。RSVP能提供Q0s保证。

参考文献:

[1]郭宝龙,倪伟,通信中视频信号处理[M]北京:电子工业出版社,2007

视频传输范文第8篇

【关键词】数字高清视频;视频传输;接口转换

随着科技的不断发展和进步,数字高清视频也越来越为人们所熟知,并成为社会生活不可或缺的一部分。而兼容高清视频信号与现有的显示设备,使收看高清视频的硬件成本降低,是高清视频摆脱限制而得到普及的一大难题,再者,高清视频的编辑和传输成本也非常高昂,都成了广电系统急需要解决的问题。而且,交互式网络电视(IPTV)的兴起也为数字高清视频的进一步发展带来了极大的挑战。因此,要解决眼前难题,必须更加致力于高清视频传输系统的研究以使系统成本能够尽量降低,并保证低成本的高清视频质量是刻不容缓的。

本文以高清视频接口和高清视频传输技术为切入点研究出一种仿真高清视频光纤传输系统,这是一种单路输出,用低端现场可编程门阵列(FPGA)就可以完成高清数字串行接口(HD-SDI)到高清晰度多媒体接口(HDMI)的音视频格式转换,降低了系统成本和复杂性,整体方案简单有效,适用于很多商业活动,如视频会议或安防监控等。

1.传输系统的理论介绍

1.1 线缆均衡

在同轴电缆长线传输时,高速串行信号会有很大回波损耗或漏电等情况而导致一定量的衰减。同轴电缆的衰减由很多因素造成的,如电缆材料、相对介质常数和传输的信号频率。所以,同轴电缆长线传输需要对电缆进行均衡设计,以减少长线传输造成的损失。而光纤的传输损耗要比同轴电缆小得多,光纤传输时不用引入均衡器。

1.2 时钟数据恢复(CDR)

要对高清数字串行接口格式的高速串行信号解串才能对信号进行处理,而对HD-SDI信号而言,由于高速串行差而不免在传输过程中受到干扰,致使信号分辨率过低。以锁相环路(PLL)再生时钟来重整串行信号,可以去除信号中的受干扰因子,再通过系统增益将信号波形放大以便后端处理。

2.选择低成本设计方案

2.1 发送端的方案选择

设计HD-SDI光纤发送端的重点是要在保证传输系统信号质量和接收端接收高速视频数据准确度和低误码率的前提下尽可能地降低成本。相较与高昂的FPGA芯片方案,专用集成电路(ASIC)解决方案比较符合低成本要求。图1是ASIC方案发送端的设计流程。

由图1可见,线缆均衡修复高速传输的HD-SDI信号,再输入到HD解串器恢复数据和时钟,而HD解串器功能可以驱动能输出供长线传输的HD-SDI接口,因此信号可以直接从解串器的差分串口输出,经由GO2910光发送模块传送到光纤上完成传输过程。

2.2 接收端的方案选择

接收端的方案选择也采用了对应发送端的保质量低投入方案。系统主要接收一下几个部分:光接收部分、HD-SDI串并转换、线缆均衡部分、HDMI发射部分和FPGA协议转换部分。图2为HD-SDI接收解串行硬件结构框架图。

如图2,光接收器将得到的信号转换为差分电信号传送给线缆均衡去修复,然后又将高速串行差分信号传输到解串器,经由解串器旁路的串/并转换模式将时钟信息恢复的HD-SDI信号传输出去,由解串器的驱动力直接输送到刺刀螺母连接器(BNC)接口来完成系统的信号流程。

3.电路设计与实现

3.1 HD-SDI信号处理电路部分

相较于数据,视频信号需要消耗更大的功率来传输,HD解串器内部设有标准的信号处理模块,可以进行传输误检和处理,自动配置自动监测数据的格式为适合标准协议的PLL处理模式,恢复串行信号的时钟信息。

3.2 FPGA电路

内部寄存器资源、全局时钟管理资源和引脚资源丰富,特有面积速度可互换,对电磁干扰也不甚敏感,大大降低了电路设计成本,是FPGA的可行优势。FPGA电路配置中的时钟输入引脚使用FPGA的全局时钟资源,而其他一脚资源根据印制电路板(PCB)布局进行合理连接,可通过引脚约束来配置引脚的电平、输出模式以及输出电流电压。

3.3 HDMI接口设计

HDMI发射端采用的ANX9030芯片(由ANALOGIX公司产出)的内建PLL对接收并行信号且无误差处理时钟信息的能力很高,而且成本又低,HDMI(高清晰度多媒体)接口完全可以取代HD-SDI(高清数字串行)接口进行高清视频的传输。HDMI接口设计从ANX9030的框架和特性出发,使ANX9030对接收到的含有行/场同步信息的并行图像进行处理,再将ANX9030数据输入引脚与FPGA连接进行引脚设置,最后用SST89V51芯片作ANX9030的外界驱动器,实现HDMI接口的设计。

4.FPGA实现传输设计

以FPGA对前级芯片数据进行精确提取,并分离提取视频和音频信号,根据自动检测视频格式信息来调整音视频的输出时序,然后实现输出格式的转换,完成高清视频传输与视频接口转化的仿真设计。

5.结语

数字高清视频的发展丰富了人们的生活,然而越来越多的同类科技成果在不断衍生,数字高清视频以后的发展受到了限制,所以,高清视频传输系统必须不断更进改善,才能在日趋激烈的竞争环境里生存并发展下去。研究数字高清视频传输和视频接口的转换设计是优化传输系统的唯一途径,是数字高清视频得以发展的保障,因此,更新设计理念以抢占竞争优势需要长久进行。

参考文献

[1]李静,叶志龙,胡克用.双音频在高清安防监控系统中的应用[J].电视技术,2011(11).

[2]李静,安康,孙亚萍.双核嵌入式处理器的HDMI高清接口设计[J].电视技术,2010(2).

[3]董素玲,王真.HDMI到HD-SDI接口转换在高清视频系统中的应用[J].徐州建筑职业技术学院学报,2011(11).

[4]William Boldt.视频输出发展的内在趋势[J].中国电子商情,2010(4).

[5]郑明魁,苏凯雄,杨秀芝.一种高清数字电视H.264编码系统的设计[J].电视技术,2011(18).

视频传输范文第9篇

关键词: 超宽带; NS2; 无线视频; 信道模型

中图分类号: TN941.2?34 文献标识码: A 文章编号: 1004?373X(2013)11?0033?03

0 引 言

超宽带(Ultra?Wideband,UWB)是无线电通信及信号处理领域的热点之一。FCC在2002年提出的UWB信号的定义为:在?10 dB的带宽超过500 MHz的信号都是UWB信号[1?2]。而信道模型是超宽带通信系统设计和研究的基础。超宽带技术具有隐蔽性好、抗多径和窄带干扰能力强、传输速率高、系统容量大、穿透能力强、低功耗、系统复杂度低等一系列优点,而且可以重复利用频谱。对于无线视频的传输,可以解决频谱拥挤的问题[3?7]。本文主要研究UWB的信道模型,并对修正的S?V的四种信道模型进行了Matlab仿真及在NS2中构建UWB网络模型。NS构建的网络模型在模拟传输JM压缩后的H.264文件时减小了构建系统的复杂度,NS构建的UWB网络不需要将视频进行调制解调,只需要将H.264文件进行解析,解析完成后会生成一个txt格式的文件。直接传输txt文件形式的trace文件,为视频传输减少了调制与解调带来的复杂过程。

1 IEEE 802.15.3a信道模型

UWB的信道模型主要有两种:路径损耗信道模型;多径衰落信道模型。路径损耗信道模型有:大尺度衰落信道路径损耗模型和IEEE 802. 15. 3推荐的路径损耗模型;多径衰落信道模型有:802.11 信道模型、Rayleigh 信道模型、Saleh?Valenzuela (S?V)信道模型、Δ?K信道模型和修正的S?V信道模型[8?9]。本文主要对修正的S?V模型的四种信道进行了研究和仿真。

IEEE信道模型最终决定采用基于簇方式的模型,IEEE对S?V模型进行了一些修改:用对数正态分布表示多径增益幅度;用另一个对数正态随机变量表示总多径增益的波动;最后,信道系数采用实变量而非复变量。

IEEE信道模型的信道冲激响应为:

[h(t)=Xl=0Lk=0K(l)αlkδ(t-Tl-τlk)]

式中:[X]为对数正态随机变量,代表信道的幅度增益;[L]为观测到的簇的数目;[K(l)]为第[l]簇内接收到的多径数目;[αlk]为第[l]簇中第[k]条路径的系数;[Tl]为第[l]簇到达的时间;[τlk]为第[l]簇中第[k]条路径的延时。

信道系数[αlk]定义为:

[αlk=plkβlk]

式中:[plk]为以等概率取+1和-1的离散随机变量;[βlk]为第[l]簇中第[k]条路径的服从对数正态分布的信道系数,表示为:

[βlk=10xlk20]

式中:[xlk]是均值为[μlk],标准差为[σlk]的高斯随机变量,[xlk=μlk+ξl+ζlk],[ξl]和[ζlk]是两个高斯随机变量,分别表示每簇和每个分量的信道系数变化,[σξ]和[σζ]分别表示[ξl]和[ζlk]的标准差。

簇幅度和簇内每个多径分量的幅度都服从指数衰减的特点,从而得到[μlk]的值:

[μlk=10lnβ002-10TlΓ-10τlkγln10-σ2ξ+σ2ζln1020]

2 信道模型的Matlab仿真

IEEE 802.15.3a工作组给出了四种不同信道环境,见表1。各信道主要对距离和是否是视距进行了研究。

从图1中可以看出CM1与CM2的传输距离相同时,由于CM2在发射极与接收极之间有障碍物,能量衰减严重。CM3与CM1,CM2相比具有更大的时间弥散。CM4发射能量的时间弥散比前面任何一种更为明显。

3 NS2网络的构建

3.1 NS2简介

NS2是目前主流的网络模拟软件之一,其开源、免费和易于扩展的特性被大多数开发者青睐。NS2是一个面对对象的、离散时间驱动的模拟器,使用C++和OTcl(面对对象的Tcl语言)作为开放语言[10]。

3.2 NS2模型的创建

由于在视频传输的仿真中,需要将真实的视频码流在网络中传输,因此必须对NS2进行扩展与修改, 添加视频传输仿真过程中所需的网络元素,包括的设计[11?13]。

首先为Otcl脚本的编写,根据实际网络的要求,定义网络节点,配置网络拓朴结构,确定链路的基本特性;建立UDP,将UDP发送、接收分别绑定在相应节点上;设置好trace 对象,将trace文件,注入到NS2模拟网络中进行传输,然后模拟网络根据trace文件中的参数生成模型,随后得到相应的trace结果;最后根据trace文件对传输后的视频进行质量评估。流程图如图2所示。

3.3 NS2模型创建结果

本文创建的UWB网络是一个由三个节点组成一字形的拓扑结构,在CM1的条件下节点0向节点2发送恒定速率的数据流CBR。图3为NS2构建的UWB信道两张瞬时图。

从图3可以看出节点0会发送无线数据由节点1再传给节点2,从图中可以看出简单数据流的发送过程。

4 结 语

本文主要对UWB的信道进行研究,进而利用NS2创建UWB网络。UWB网络的创建为无线视频的传输提供一个平台,尤其是高清视频的传输。NS网络模型的构建也为无线视频传输的仿真过程减小了复杂度。利用UWB网络可以对无线视频传输的丢包率、时延、吞吐量等进行进一步研究。

参考文献

[1] 葛利嘉,朱林,袁晓芳,等.超宽带无线电基础[M].北京:电子工业出版社,2006.

[2] 葛利嘉,曾凡鑫,刘郁林,等.超宽带无线电通信[M].北京:国防工业出版社,2005.

[3] 孙国学.基于UWB的宽带无线视频传输技术研究及部分实现[D].北京:北京邮电大学,2006.

[4] LEE Seung?sik, KIM Chang?wan, PARK Bong?hyuk,et al. A WiMedia UWB yransceiver for 4?HD channel streaming [J].IEEE Transactions on Consumer Electronics, 2007, 53(2): 782?787.

[5] JEON Y, LEE S, LEE S, et al. High definition video transmission using bluetooth over UWB [J]. IEEE Transactions on Consumer Electronics, 2010, 56(1): 27?33.

[6] LEE S, JEON Y, CHOI S, et al. Gigabit UWB video transmission system for wireless video area network [J]. IEEE Transactions on Consumer Electronics, 2011, 57(2): 395?402.

[7] LEE Kyu?Man, HAN D S. Improved WiMedia system supporting MIMO for wireless HD STB and mobile device [J]. IEEE International Conference on Consumer Electronics (ICCE). Las Vegas, NV : IEEE, 2011: 447?448.

[8] 鲁慧.UWB的室内信道模型的信道编码研究[D].西安:西安电子科技大学,2006.

[9] 冯金振.基于UWB技术的家庭宽带视频信号传输系统[D].上海:上海大学,2008.

[10] 黄化吉,冯穗力,秦丽姣,等.NS网络模拟和协议仿真[M].北京:人民邮电出版社,2010.

[11] 钟辉,王鹏.基于NS2的无线网络仿真研究[J].计算机与数字工程,2010,36(7):57?60.

[12] 张亚明,陈绍炜,夏林英.基于NS2的无线网络仿真研究[J].通信技术,2007(3):58?60.

视频传输范文第10篇

【关键词】S3C2440;无线传输;嵌入式Linux;GPRS;H.264

引言

通讯技术与嵌入式技术的发展,将人类社会带入到了一个以信息化为核心的崭新纪元。信息社会的重要特征是人们对各种信息能够方便、灵活的获取以及在这个基础上对各种信息的充分应用。由于视频图像文件包含的信息量大、可见性高,在信息社会得到了广泛的应用。因此如何对图像进行高质量的获取、有效传输和理解将是一个核心的研究领域。

目前,各种应急通信以及复杂环境下的通信方案设计对无线通信技术的需求越来愈多,各个频段、各种调制和通信方式的通信技术纷纷出现以应对这一情况。基于传统的有线视频监控系统存在着显著的缺陷,例如:欠缺矫捷性、扩展和调整不便利、缺乏移动性等等。而基于ARM平台的视频图像无线数字传输方式,具有体积小、功耗低、实时性好及传输可靠、资源丰富、功耗低、价格低廉等优点[1],在安防、会议和无线数字电视上的到了极大地推广应用。

1.系统总体方案的设计

目前,多数无线视频传输系统的体积较大,核心处理模块构造简单,只有简单的控制视频采集与视频传输的功能,而视频压缩编码多是通过视频采集设备进行的,上位机接收端接收的视频信息较为模糊,且系统缺乏智能化的功能和人性化的设计。现如今无线视频传输在安防系统上有着重要的作用,视频图像不清晰或者数据缺失都会造成信息的遗漏,所以本文设计的无线视频传输系统方案研究正是考虑到这些因素来设计的,其系统结构框图如图1所示。

无线视频传输系统的运作流程主要概述为:系统上电后事先插接好的USB摄像头采集设备、LCD触摸屏设备、存储模块和GPRS模块通电开始准备运行,并发送给核心处理器工作状态信号。主控模块接收到信号后,通过硬件系统核心处理模块发出命令开始采集视频图像数据,LCD触摸屏启动并进入登录界面。采集到的数据可通过液晶屏进行预播放,同时系统中基于H.264的软件编码系统开始编码操作,编码处理的数据在存储中缓冲并进行传输的准备工作。嵌入式系统核心模块发出传输地址和传输信号,GPRS模块开始工作,将存储缓冲区中编码压缩好的数据通过无线网络发送至上位机终端,经解码解压显示播放[2]。

2.控制系统硬件电路的设计

无线视频传输系统的硬件平台主要有以下几部分组成,核心芯片为S3C440的ARM最小系统电路、USB摄像头接口电路、GPRS无线通信电路、LCD显示设备电路和电源电路。下面详细介绍各模块的硬件电路设计及功能实现。

GPRS通信模块硬件电路设计:

选用Siemens公司生产的型号为MC35i的GPRS模块,该模块的连接接口为9针标准RS-232接口,通过MAX232电平转换芯片和S3C2440的UART1口相连,进行全双工通信[3]。GPRS通信模块硬件电路设计如图2所示。

3.系统软件开发设计

本课题设计的无线视频传输系统的软件部分主要由四部分组成:bootloader的移植,Linux内核移植,根文件系统的制作,底层硬件的驱动[4]。

3.1 USB设备驱动移植

嵌入式Linux系统在USB驱动设备启动,驱动程序首先要在系统内核中进行注册,并提供设备相关的信息,如修改设备的类型和它所支持的操作等。一般来说,USB设备在系统上热插拔的操作都会通过usb_driver结构体传递。USB驱动程序中必不可少的主要结构体为struct usb_driver,它向USB核心代码描述了USB 驱动程序。

在USB驱动操作中探测函数probe()和断开函数disconnect()为必须执行函数。在设备插入和拔出时分别被检测命令调用,作用为初始化设备和释放软件资源。而注册和注销usb_driver分别通过以下两个函数来完成:

int usb_register(struct usb_driver *new_driver)

void usb_deregister(struct usb_driver *driver)

USB从意义上来说只是一条总线,当USB驱动运行时,设备本身的各个驱动由USB与主机相连接收或发出命令。所以usb_driver在驱动代码中只起到了牵线作用,而设备真正的注册和注销直接发生在模块加载和卸载的相关函数中。

3.2 H.264熵编码技术

熵编码是无损压缩编码,它生成的码流可以经解码无失真的恢复出原始数据,是将特定的数据编码成定长的或可变长二进制码字的一种编码方法,H.264标准中的熵编码过程,包含基于内容自适应的变长编码(CAVLC:Context-based Adaptive Variable Length Coding)过程、基于内容自适应的二进制算术编码(CABAC:Context-based Adaptive Binary Arithmetic Coding)过程和指数哥伦布熵编码(Exp-Golomb)过程[5]。各部分的分析如下:

指数哥伦布熵编码用于对句法元素的编码,把所有句法元素映像到统一的可扩展码字表,不单独对每个句法元素设计不同的码字表,有助于降低编解码的复杂度[5]。指数哥伦布熵编码过程中,码流中参考帧索引、量化步长、宏块类型、运动矢量差值和帧内预测模式等信息为其压缩编码的主要对象。其编码的码字构造为:

3.3 帧间预测技术

与帧内预测模块相同,帧间预测模块也分为两个部分:指数哥伦布熵解码和针对当前块亮度、色度分量进行的1/4和1/8精度的内插计算,在编码过程中对帧与帧之间没有明显变化的图像内容进行编解码对资源会造成浪费,高效的对所需要的内容进行编解码是帧间预测技术的优势[47]。

在帧间预测方法中,参考图像为先前已编码帧的图像,在帧间模式运行时,系统利用参考图像对当前图像进行预测,此时当前图像的抽样值为参考图像的抽样点通过运动矢量的补偿值,参考帧的选择和模式判定公式如下:

S为当前块像素,mv为当前矢量,pred为预测矢量,ref为参考帧,r(ref,mv)为参考块像素,SA(T)D为当前块和参考块像素差值的绝对值,c为重建块,R为对宏编码的比特,SSD为当前块和重建块的差值平方和。这种方法能够降低图像的时域相关性,提高了视频图像的压缩效率。H.264标准中使用块结构运动补偿,支持多种块结构预测,运算精度能精确到1/4像素。

图3 上位机接收视频实时显示

4.试验结果分析

系统采集的视频图像信息通过无限传输后在上位机接收端的播放器上播放情况如图3 所示。图中所看到的视频画面分辨率为720×576,系统H.264软件编码率为400kbps,帧率为30fps。

5.结论

借鉴原有编码技术,本设计使用新的压缩方法在最大程度上减少了视频数据的丢失,同时在原有的硬件基础上添加了智能控制系统。

本设计的智能系统具有良好的适应能力,能够在一些比较复杂的环境下工作,其中采用的LCD触摸显示屏在人为操作时更加简便也更加智能,极大地简化了操作过程。本设计的无线视频传输系统融合了嵌入式系统和当下最为普及的GPRS技术解决了一些复杂环境下视频传输的实际需求。

参考文献

[1]傅中君.嵌入式GPRS无线通信模块的设计与实现[J].计算机工程与应用.2009,14(23)2162-165.

[2]翟战强,蔡少华.基于GPRS/GPS/GIS的车辆导航与监控系统[J].测绘通报,2004,26(15)34-36.

[3]杨磊,蒋念平.嵌入式Linux下USB主控制器驱动设计[J].信息技术,2013,13(36)121-123.

[4]黄倩,闵华松.基于ARM的移动视频监控系统[J].现代电子技术,2010,33(1):148-152.

[5]郭知明,杨世风.基于GPRS技术的城市管网监测系统的研究[J].国外电子测量技术,2009,28(12):81-83.

上一篇:辅助工具范文 下一篇:文件传输范文