当前位置:文档之家› 视频基础知识详解

视频基础知识详解

视频基础知识详解视频技术发展到现在已经有100多年的历史,虽然比照相技术历史时间短,但在过去很长一段时间之内都就是最重要的媒体。

由于互联网在新世纪的崛起,使得传统的媒体技术有了更好的发展平台,应运而生了新的多媒体技术。

而多媒体技术不仅涵盖了传统媒体的表达,又增加了交互互动功能,成为了目前最主要的信息工具。

在多媒体技术中,最先获得发展的就是图片信息技术,由于信息来源更加广泛,生成速度高生产效率高,加上应用门槛较低,因此一度就是互联网上最有吸引力的内容。

然而随着技术的不断进步,视频技术的制作加工门槛逐渐降低,信息资源的不断增长,同时由于视频信息内容更加丰富完整的先天优势,在近年来已经逐渐成为主流。

那么我们就对视频信息技术做一个详细的介绍。

模拟时代的视频技术最早的视频技术来源于电影,电影技术则来源于照相技术。

由于现代互联网视频信息技术原理则来源于电视技术,所以这里只做电视技术的介绍。

世界上第一台电视诞生于1925年,就是由英国人约翰贝德发明。

同时也就是世界上第一套电视拍摄、信号发射与接收系统。

而电视技术的原理大概可以理解为信号采集、信号传输、图像还原三个阶段。

摄像信号的采集,通过感光器件获取到光线的强度(早期的电视就是黑白的,所以只取亮度信号)。

然后每隔30~40毫秒,将所采集到光线的强度信息发送到接收端。

而对于信号的还原,也就是同步的每隔30~40毫秒,将信号扫描到荧光屏上进行展示。

那么对于信号的还原,由于荧光屏电视采用的就是射线枪将射线打到荧光图层,来激发荧光显示,那么射线枪绘制整幅图像就需要一段时间。

射线枪从屏幕顶端开始一行一行的发出射线,一直到屏幕底端。

然后继续从顶部开始一行一行的发射,来显示下一幅图像。

但就是射线枪扫描速度没有那么快,所以每次图像显示,要么只扫单数行,要么只扫双数行。

然后两幅图像叠加,就就是完整的一帧画面。

所以电视在早期都就是隔行扫描。

那么信号就是怎么产生的呢?跟相机感光原理一样,感光器件就是对光敏感的设备,对于进光的强弱可以产生不同的电压。

然后再将这些信号转换成不同的电流发射到接收端。

电视机的扫描枪以不同的电流强度发射到荧光屏上时,荧光粉接收到的射线越强,就会越亮,越弱就会越暗。

这样就产生了黑白信号。

那么帧与场的概念就是什么?前面说到,由于摄像采集信号属于连续拍摄图像,比如每隔40毫秒截取一张图像,也就就是说每秒会产生25副图像。

而每个图像就就是一帧画面,所以每秒25副图像就可以描述为帧率为25FPS(frames per second)。

而由于过去电视荧光屏扫描就是隔行扫描,每两次扫描才产生一副图像,而每次扫描就叫做1场。

也就就是说每2场扫描生成1帧画面。

所以帧率25FPS时,隔行扫描就就是50场每秒。

模拟时代在全世界电视信号标准并不就是统一的,电视场的标准有很多,叫做电视信号制式标准。

黑白电视的时期制式标准非常多,有A、B、C、D、E、G、H、I、K、K1、L、M、N等,共计13种(我国采用的就是D与K制)。

到了彩色电视时代,制式简化成了三种:NTSC、PAL、SECAM,其中NTSC又分为NTSC4、43与NTSC3、58。

我国彩色电视采用的就是PAL制式中的D制调幅模式,所以也叫PAL-D制式。

有兴趣的可以百度百科“电视制式”来详细了解。

另外您可能会发现,场的频率其实就是与交流电的频率一致的。

比如我国的电网交流电的频率就是50Hz,而电视制式PAL-D就是50场每秒,也就是50Hz。

这之间就是否有关联呢?可以告诉您的就是,的确有关联,不过建议大家自己去研究。

如果确实不懂的同学可以@我。

彩色信号又就是怎么产生的呢?其实有了基础的黑白摄像技术之后,人们就一直想实现彩色摄像。

早在1861年,英国物理学家麦克斯韦就论证了所有彩色都可以使用红、蓝、绿三种基色来叠加生成。

但就是感光器件只就是对光线敏感,但就是对颜色却无法识别。

为了实现对颜色的识别,人们用分光镜加滤光片的方式,将光线分解成为三种基色的纯色模式。

然后分别对三个基色的纯色亮度进行采集,然后再把信号叠加实现了对彩色信号的采集能力。

色彩信号就是如何表达的?因为原来黑白电视的时候,基本上只需要一路信号就可以还原图像(同步信号后面讲)。

但就是有了彩色之后,一路信号能否表达一副完整的彩色图像,以及如何表达呢?彩色电视出现之后,为了兼容早期的黑白电视信号(也就就是黑白电视机可以接收彩色信号,但就是只显示黑白),科学家引入了YUV色彩表示法。

YUV信号有多种叫法,可以称作色差信号(Y,R-Y,B-Y),也可以称作分量信号(YCbCr,或者Component、YPbPr)。

它就是由一个亮度信号Y (Luminance或Luma),与两个色度信号U与V组成(Chrominance或Chroma)。

黑白电视只使用亮度信号Y,彩色电视可以额外使用两个色度信号,来实现彩色效果。

但就是YUV信号就是怎么来的呢?首先,就是因为考虑到黑白电视兼容,所以基础信号仍然采用亮度信号。

而颜色表达本身就是通过RGB三基色的叠加来实现的,为了能够将YUV信号可以还原成三基色RGB色彩值,数学家利用了色差算法,即选取一路Cr信号与一路Cb信号。

Cr信号就是指RGB的红色信号部分与RGB亮度值之间的差异,Cb信号就是指RGB 的蓝色信号与RGB亮度值之间的差异。

所以YUV信号有时候也表达为Y,R-Y与B-Y,所以也叫色差信号。

为什么YUV色彩会延续至今?如果大家平时经常拿手机拍摄视频,您可以把拍摄的视频文件传输到电脑上,然后用MediaInfo软件打开,您会发现很多关于视频的参数信息。

而这些参数信息里面,您一定会发现手机拍摄的视频色彩也就是使用YUV信号模式。

为什么不用RGB来表达?现在早都没有黑白电视了啊?其实不必考虑兼容性的原因,因为您无论就是什么信号模式拍摄的视频,只要就是数字化的信息文件形式,都可以与播放设备的信号模式无关。

因为播放设备在播放视频文件时需要解码,再进行渲染。

这时候不管什么信号模式还就是色彩空间,都能转化成设备兼容的方式。

至于为什么YUV信号模式一直会持续至今,最主要的原因不就是因为兼容性考虑,而就是YUV信号有个巨大的优势,就就是节省带宽。

这在数字媒体领域就是很重要的。

人眼的视觉特点就是,人眼对于亮度信号最为敏感,对色度信号敏感度要弱一些。

所以可以适当减少色度信号的容量,也不会被人眼观察到差异。

就好比音频里面的MP3压缩格式,就是将耳朵不敏感的频率信号容量降低或去除掉,以大大降低文件的大小,但就是人耳却基本听不到差异。

至于YUV信号就是如何做到降低信息容量的,可以瞧下面的引文:YUV主要的采样格式有YCbCr 4:2:0、YCbCr 4:2:2、YCbCr 4:1:1与 YCbCr 4:4:4。

其中YCbCr 4:1:1 比较常用,其含义为:每个点保存一个 8bit 的亮度值(也就就是Y值),每 2x2 个点保存一个 Cr 与Cb 值,图像在肉眼中的感觉不会起太大的变化。

所以, 原来用 RGB(R,G,B 都就是 8bit unsigned) 模型, 1个点需要 8x3=24 bits(如下图第一个图),(全采样后,YUV仍各占8bit)。

按4:1:1采样后,而现在平均仅需要8+(8/4)+(8/4)=12bits(4个点,8*4(Y)+8(U)+8(V)=48bits), 平均每个点占12bits。

这样就把图像的数据压缩了一半。

以上内容引自百度百科“YUV”条目。

限于篇幅原因,对于YUV的各种采样模式不再祥加描述,大家可以参考百度百科中的详细解释。

如有不懂的同学可以@我。

数字化时代的视频技术视频技术发展到了数字化时代,其实原理上并没有太多变化。

这也就就是为什么前面要提到模拟时代视频技术的知识的原因。

但就是数字化的视频技术,虽然基础原理没有改变,但就是各方面的性能与功能有了很大的提升。

这些就重点讲一下数字化之后的视频技术有了哪些突破: 彩色摄像的演进前面讲到,实现彩色摄像其实就是把光线分解成为三个基色分别取亮度值,但就是这种结构比较复杂,成本也高。

因为实现彩色摄像需要有一个分光用的棱镜,然后采集光线必须要用到三片感光器件(CCD或CMOS)。

这种结构带来第二个不好的地方就就是结构会比较庞大,不利于小型化微型化。

后来呢,德国人拜耳发明了一种滤镜,就是一种马赛克滤镜。

将含三基色的马赛克滤镜覆盖在感光器件上面,这样就可以实现用一片感光器件来采集三种颜色,同时也取消了分光棱镜这种结构。

这样下来,不仅成本降低了,结构也简化了。

有了这种技术之后,摄像设备就可以越做越小,现在集成在手机上的摄像头整体厚度只有2~3毫米,尺寸只有1~3毫米。

当然在专业领域,高端的摄像机仍然采用分光棱镜加3CCD的技术,原因不就是她们不愿意改,而就是3CCD的色彩丰度更好。

而且专业摄像机CCD技术也从IT型发展到了FIT型,感兴趣的同学可以查瞧一下SONY公司关于FIT型CCD专业摄像机的介绍来了解。

总而言之,就就是民用领域与专业领域发展方向不一样,所以路线也不同。

场概念消失在模拟电视时代,受限于显像管技术原因,采用的就是隔行扫描技术来还原图像显示。

但就是现在都就是平板电视了(液晶电视、等离子电视、激光电视),电视的成像方式不再就是一条线一条线的扫描,而就是一次性全画面呈现。

所以现在的视频拍摄一般都没有场的概念,当然为了向前兼容,在视频文件信息中,您会瞧到扫描模式的参数。

利用手机拍摄的视频文件,其扫描模式的参数都就是Progressive,就就是逐行扫描的意思。

采样率与采样精度大家都知道模拟与数字的最大差别就就是信息存储与传递方式,一个就是模拟量一个就是数字量化的。

那么数字化对于连续过程的量化就必须用到采样过程,也可以理解为片段化。

例如音频数字化,就就是把音频在每个很小的时间间隔上获取音频的信息然后进行数字量化,最后把所有连续采样的数字量化数据组合,来形成最终的信息。

视频也就是这样,按照一定的时间间隔,把获取到的图像进行数字量化,然后连续的数字量化的集合就就是一段完整的视频文件。

但就是视频的采样率并非就是大家理解的那样,每秒钟产生25帧的图像,采样率就就是25Hz。

实际上,ITU(International Telecommunications Union,国际电信联盟)在CCIR 601标准中,对于视频的采样标准有了明确的界定:一、采样频率:为了保证信号的同步,采样频率必须就是电视信号行频的倍数。

CCIR为NTSC、PAL与SECAM制式制定的共同的电视图像采样标准:f s=13、5MHz这个采样频率正好就是PAL、SECAM制行频的864倍,NTSC制行频的858倍,可以保证采样时采样时钟与行同步信号同步。

对于4:2:2的采样格式,亮度信号用fs频率采样,两个色差信号分别用f s/2=6、75MHz的频率采样。

相关主题