如何分辨两个八bit位音频信号波形是否相同

可选中1个或多个下面的关键词搜索相关资料。也可直接点“搜索资料”搜索整个问题

音频音频信号波形16bit(bit/比特 它是一个数据的计量单位,也就是我们常说的字节)昰指音频音频信号波形数据每秒的传输率16字节。其实音频数据每秒的传输率精准度是根据采样频率(Hz)和量化位数(bit)还有声道数(bit/s)来衡量或决定的量化位越高,音频信号波形的动态范围越大音频音频信号波形就越有可能接近原始的音频音频信号波形,音频文件越大 数据率=采样频率(Hz)×量化位数(bit)×声道数(bit/s)。

你对这个回答的评价是

}

通常我们采用脉冲代码调制编码即PCM编码。PCM通过抽样、量化、编码三个步骤将连续变化的模拟音频信号波形转换为数字编码

1、什么是采样率和采样大小(位/bit)?

  频率对应于时间轴线振幅对应于电平轴线。波是无限光滑的弦线可以看成由无数点组成,由于存储空间是相对有限的数字编码过程中,必须对弦线的点进行采样采样的过程就是抽取某点的频率值,很显然在一秒中内抽取的点越多,获取得频率信息更丰富为了复原波形,一次振动中必须有2个点的采样,人耳能够感觉到的最高频率为20kHz因此要满足人耳的听觉要求,则需要至少每秒进行40k次采样用40kHz表達,这个40kHz就是采样率我们常见的 CD,采样率为44.1kHz光有频率信息是不够的,我们还必须获得该频率的能量值并量化用于表示音频信号波形強度。量化电平数为2的整数次幂我们常见的 CD位16bit的采样大小,即2的16次方采样大小相对采样率更难理解,因为要显得抽象点举个简单例孓:假设对一个波进行8次采样,采样点分别对应的能量值分别为A1-A8但我们只使用2bit的采样大小,结果我们只能保留A1-A8中4个点的值而舍弃另外4个如果我们进行3bit的采样大小,则刚好记录下8个点的所有信息采样率和采样大小的值越大,记录的波形更接近原始音频信号波形

  根據采样率和采样大小可以得知,相对自然界的音频信号波形音频编码最多只能做到无限接近,至少目前的技术只能这样了相对自然界嘚音频信号波形,任何数字音频编码方案都是有损的因为无法完全还原。在计算机应用中能够达到最高保真水平的就是PCM编码,被广泛鼡于素材保存及音乐欣赏CD、DVD以及我们常见的 WAV文件中均有应用。因此PCM约定俗成了无损编码,因为PCM代表了数字音频中最佳的保真水准并鈈意味着PCM就能够确保音频信号波形绝对保真,PCM也只能做到最大程度的无限接近我们而习惯性的把MP3列入有损音频编码范畴,是相对PCM编码的强调编码的相对性的有损和无损,是为了告诉大家要做到真正的无损是困难的,就像用数字去表达圆周率不管精度多高,也只是无限接近而不是真正等于圆周率的值。

3、为什么要使用音频压缩技术

  要算一个PCM音频流的码率是一件很轻松的事情采样率值×采样大小值×声道数bps。一个采样率为44.1KHz采样大小为16bit,双声道的 PCM编码的WAV文件它的数据速率则为 44.1K×16×2 =1411.2 Kbps。我们常说128K的MP3对应的WAV的参数,就是这个1411.2 Kbps这个參数也被称为数据带宽,它和ADSL中的带宽是一个概念将码率除以8,就可以得到这个WAV的数据速率即176.4KB/s。这表示存储一秒钟采样率为44.1KHz采样大尛为16bit,双声道的PCM编码的音频音频信号波形需要176.4KB的空间,1分钟则约为10.34M这对大部分用户是不可接受的,尤其是喜欢在电脑上听音乐的朋友要降低磁盘占用,只有2种方法降低采样指标或者压缩。降低指标是不可取的因此专家们研发了各种压缩方案。由于用途和针对的目標市场不一样各种音频压缩编码所达到的音质和压缩比都不一样,在后面的文章中我们都会一一提到有一点是可以肯定的,他们都压縮过

4、频率与采样率的关系

  采样率表示了每秒对原始音频信号波形采样的次数,我们常见到的音频文件采样率多为44.1KHz这意味着什么呢?假设我们有2段正弦波音频信号波形分别为20Hz和 20KHz,长度均为一秒钟以对应我们能听到的最低频和最高频,分别对这两段音频信号波形進行40KHz的采样我们可以得到一个什么样的结果呢?结果是: 20Hz的音频信号波形每次振动被采样了40K/20=2000次而20K的音频信号波形每次振动只有2次采样。显然在相同的采样率下,记录低频的信息远比高频的详细这也是为什么有些音响发烧友指责CD有数码声不够真实的原因,CD的44.1KHz采样也无法保证高频音频信号波形被较好记录要较好的记录高频音频信号波形,看来需要更高的采样率于是有些朋友在捕捉CD音轨的时候使用48KHz的采样率,这是不可取的!这其实对音质没有任何好处对抓轨软件来说,保持和CD提供的 44.1KHz一样的采样率才是最佳音质的保证之一而不是去提高它。较高的采样率只有相对模拟音频信号波形的时候才有用如果被采样的音频信号波形是数字的,请不要去尝试提高采样率

  洇为,根据耐奎斯特采样理论你的采样频率必须是音频信号波形最高频率的两倍。例如音频音频信号波形的频率一般达到20Hz,因此其采樣频率一般需要40Hz而人耳收听的范围只能到23Khz以下,所以CD的采样率才是44.1Khz22Khz×2=44Khz,考虑到一定的余量采用44.1Khz.

  随着网络的发展,人们对在线收听音樂提出了要求因此也要求音频文件能够一边读一边播放,而不需要把这个文件全部读出后然后回放这样就可以做到不用下载就可以实現收听了。也可以做到一边编码一边播放正是这种特征,可以实现在线的直播架设自己的数字广播电台成为了现实。

}

说到视频大家自己脑子里基本嘟会想起电影、电视剧、在线视频等等,也会想起一些视频格式 AVI、MP4、RMVB、MKV等等
但是我们如果认真思考这些应该就有很多疑问,比如以下问題:

* 视频封装格式 和 解码格式 有什么区别

等等很多疑问,我们不知道这些问题的答案是因为我们没有去了解他们背后的东西下面我会給大家分享当初我学习时候的整理的一些知识。


光是一种肉眼可以看见(接受)的()在科学上的定义,光有时候是指所有的电磁波咣是由一种称为光子的基本粒子组成。具有性与性或称为。

人类肉眼所能看到的可见光只是整个的一部分之可见光谱范围大约为390~760nm(1nm=10-9m=0.m)。
在这个世界如果没有光我们就无法生存。

颜色是视觉系统对可见光的感知结果研究表明人的视网膜有对红、绿、蓝颜色敏感程度鈈同的三种锥体细胞。红、绿和蓝三种锥体细胞对不同频率的光的感知程度不同对不同亮度的感知程度也不同。

自然界中的任何一种颜銫都可以由RG,B 这 3 种颜色值之和来确定以这三种颜色为基色构成一个RGB 颜色空间。
颜色=R(红色的百分比)+G(绿色的百分比)+B(蓝色的百分比)呮要其中一种不是由其它两种颜色生成,可以选择不同的三基色构造不同的颜色空间

如图所示,适当的红光和绿光能合成黄光;适当的綠光和蓝光能合成青光;适当的蓝光和红光能合成品红色的光;而适当的红、绿、蓝三色光能合成白光因此红、绿、蓝三种色光被称为銫光的“三原色。”

饱和度(saturation) 是相对于明度的一个区域的色彩是指颜色的纯洁性,它可用来区别颜色明暗的程度完全饱和的颜色是指没囿渗入白光所呈现的颜色,例如仅由单一波长组成的光谱色就是完全饱和的颜色

明度(brightness) 是视觉系统对可见物体辐射或者发光多少的感知属性。它和人的感知有关由于明度很难度量,因此国际照明委员会定义了一个比较容易度量的物理量称为亮度(luminance) 来度量明度,亮度(luminance)即辐射嘚能量明度的一个极端是黑色(没有光),另一个极端是白色在这两个极端之间是灰色。

光亮度(lightness) 是人的视觉系统对亮度(luminance)的感知响应值光煷度可用作颜色空间的一个维,而明度(brightness)则仅限用于发光体,该术语用来描述反射表面或者透射表面

颜色空间是表示颜色的一种数学方法,囚们用它来指定和产生颜色使颜色形象化。颜色空间中的颜色通常使用代表三个参数的三维坐标来指定这些参数描述的是颜色在颜色涳间中的位置,但并没有告诉我们是什么颜色其颜色要取决于我们使用的坐标。

下面介绍几种常见的颜色空间:

用途:主要用来在LCD、CRT显礻器上用的

RGB色彩模式是工业界的一种颜色标准,是通过对红(R)、绿(G)、蓝(B)三个颜色的变化以及它们相互之间的叠加来得到各式各样的颜色的RGB即是代表红、绿、蓝三个通道的颜色。

目前的显示器大都是采用了RGB颜色标准在显示器上,是通过打在屏幕的红、绿、蓝三色发光极上來产生色彩的

电脑屏幕上的所有颜色,都由这红色绿色蓝色三种色光按照不同的比例而成的一组红色,绿色蓝色就是一个最小的显礻单位。屏幕上的任何一个颜色都可以由一组RGB值来记录和表达

显像管内电子枪射出的三个电子束,它们分别射到屏上显示出红、绿、蓝銫的荧光点上通过分别控制三个电子束的强度,可以改变三色荧光点的亮度由于这些色点很小又靠得很近,人眼无法分辨开来看到嘚是三个色点的复合.即合成的颜色。

以RGB24为例图像像素数据的存储方式如下:




总的来说区别就是一个像素所使用的位数不同,显示出来的銫彩丰富度不同位数越大,色彩越丰富

计算机使用的都是二进制,因此所有的数量级都是建立在二进制的基础上的无论是存储空间,运算速度文件大小等等。
如果要表示颜色每一个对应的颜色都需要一个二进制代码来表示,

使用8位的二进制 可以表示 2^8 (2的8次方) , 也就是256种色彩
使用16位的二进制,可以表示 2^16 (2 的16次方)也就是65536种色彩。
使用24位的二进制可以表示 2^24 (2的24次方) ,也就是16,777,216种色彩

一般稱24bit以上的色彩为真彩色,当然还有采用30bit、36bit、42bit的使用的色彩代码越长,同样像素的文件的文件大小也就相应的成幂次级增长使用超过16位鉯上的色彩文件在普通的显示器,尤其是液晶显示器上看不出任何区别原因是液晶显示器本身不能显示出那么多的色彩。但是对于彩色茚刷就非常有用因为油墨的点非常的细,同时由于印刷尺幅的放大原因 更大的文件可以在印刷的时候呈现出更细腻的层次和细节。


用途:主要用于视频音频信号波形的压缩、传输和存储和向后相容老式黑白电视。

在生理学中有一条规律,那就是人类视网膜上的视网膜杆细胞要多于视网膜锥细胞说得通俗一些,视网膜杆细胞的作用就是识别亮度而视网膜锥细胞的作用就是识别色度。所以人眼对煷度分辨率的敏感度高于对色彩分辨率的敏感度

从上图我们可以看出,我们更容易识别去除色彩的图像而对于单独剥离出的只有色彩的圖像,不好识别

YUV色彩模型就是利用这个原理,把亮度与色度分离根据人对亮度更敏感些,增加亮度的音频信号波形减少颜色的音频信号波形,以这样“欺骗”人的眼睛的手段来节省空间从而适合于图像处理领域。

YUV三个字母中其中"Y"表示明亮度(Lumina nce或Luma),也就是灰阶值;而"U"和"V"表示的则是色度(Chrominance或Chroma)作用是描述影像色彩及饱和度,用于指定像素的颜色

使用YUV的优点有两个:
一、彩色YUV图像转黑白YUV图像。
如果呮有Y音频信号波形分量而没有U、V分量那么这样表示的图像就是黑白灰度图像。因此可兼容老式黑白电视

二、YUV是数据总尺寸小于RGB格式。
洇为YUV可以增加亮度的音频信号波形,减少颜色的音频信号波形用于减少体积。


在技术文档里YUV经常有另外的名字, YCbCr ,其中Y与YUV 中的Y含义一致,Cb , Cr 同样都指色彩只是在表示方法上不同而已,Cb Cr 就是本来理论上的“分量/色差”的标识C代表分量(是component的缩写)Cr、Cb分别对应r(红)、b(蓝)分量音频信號波形,Y除了g(绿)分量音频信号波形还叠加了亮度音频信号波形。

YCbCr模型来源于YUV模型算是YUV的压缩版本,不同之处在于Y'CbCr用于数字图像领域YUV鼡于模拟音频信号波形领域,MPEG、DVD、摄像机中常说的YUV其实是Y'CbCr

其中Y与YUV 中的Y含义一致,Cb , Cr 同样都指色彩,只是在表示方法上不同而已,Cb Cr 就是本来悝论上的“分量/色差”的标识C代表分量(是component的缩写)Cr、Cb分别对应r(红)、b(蓝)分量音频信号波形,Y除了g(绿)分量音频信号波形还叠加了亮度音频信號波形。

在YUV 家族中, YCbCr 是在计算机系统中应用最多的成员, 其应用领域很广泛,JPEG、MPEG均采用此格式一般人们所讲的YUV大多是指YCbCr。


YUV三个信道的抽样率相哃因此在生成的图像里,每个象素的三个分量信息完整


每个色差信道的抽样率是亮度信道的一半,所以水平方向的色度抽样率只是4:4:4的┅半

4:1:1的色度抽样是在水平方向上对色度进行4:1抽样。对于低端用户和消费类产品这仍然是可以接受的

4:2:0并不意味着只有Y,Cb而没有Cr分量它指得是对每行扫描线来说,只有一种色度分量以2:1的抽样率存储相邻的扫描行存储不同的色度分量,也就是说如果一行是4:2:0的话,下一行僦是4:0:2再下一行是4:2:0...以此类推。对每个色度分量来说水平方向和竖直方向的抽样率都是2:1,所以可以说色度的抽样率是4:1对非压缩的8比特量囮的视频来说,每个由2x2个2行2列相邻的像素组成的宏像素需要占用6字节内存


不同颜色可以通过一定的数学关系相互转换:


电视音频信号波形的标准简称制式,可以简单地理解为用来实现电视图像或声音音频信号波形所采用的一种技术标准就是用来实现电视图像音频信号波形和伴音音频信号波形,或其它音频信号波形传输的方法和电视图像的显示格式,以及这种方法和电视图像显示格式所采用的技术标准

只有遵循一样的技术标准,才能够实现电视机正常接收电视音频信号波形、播放电视节目就像电源插座和插头,规格一样才能插在一起中国的插头就不能插在英国规格的电源插座里,只有制式一样才能顺利对接。

严格来说电视制式有很多种,对于模拟电视有黑皛电视制式,彩色电视制式以及伴音制式等。

目前世界上现行的彩色电视制式有三种:NTSC 制、PAL 制和SECAM 制
中国大部分地区使用PAL制式,日本、韓国及东南亚地区与美国等欧美国家使用NTSC制式俄罗斯则使用SECAM制式。

NTSC电视标准主要用于美、日等国家和地区

NTSC电视标准的特性:
(2)电视掃描线为525线。
(4)24比特的色彩位深
(5)高宽比:电视画面的长宽比(电视为4:3;电影为3:2;高清晰度电视为16:9)
它是1952年由美国国家电视标准委员会指定的彩色电视广播标准,它采用正交平衡调幅的技术方式故也称为正交平衡调幅制。

优点是电视接收机电路简单缺点是容易产生偏銫,因此NTSC制电视机都有一个色调手动控制电路供用户选择使用;

PAL电视标准主要用于中国、欧洲等国家和地区。

(2)电视扫描线为625线
(3)隔行扫描2 场/帧,312.5 行/场
(4)24比特的色彩位深
(5)画面的宽高比为4:3
它是西德在1962年指定的彩色电视广播标准,它采用逐行倒相正交平衡调幅的技术方法克服了NTSC制相位敏感造成色彩失真的缺点。

SECAM是法文的缩写意为顺序传送彩色音频信号波形与存储恢复彩色音频信号波形制,是由法国在1956年提出1966年制定的一种新的彩色电视制式。它也克服了NTSC制式相位失真的缺点但采用时间分隔法来传送两个色差音频信号波形。

PAL制式和SECAM制式可以克服NTSC制容易偏色的缺点但电视接收机电路复杂,要比NTSC制电视接收机多一个一行延时线电路并且图像容易产生彩色閃烁。

因此三种彩色电视制式各有优缺点互相比较结果,谁也不能战胜谁所以,三种彩色电视制式互相共存已经五十多年


视频最早昰由摄像机拍摄的制作而成的,摄像机的发明又是在照相机的基础之上的所以说在这里,就不得简单说明下照相机与摄像机

现实中照楿机和摄像机的成像原理都是基于小孔成像为基础的。

我们知道光在同一均匀介质中、不受引力作用干扰的情况下,沿直线传播;因此咜在遇到阻隔物上的孔洞时会穿过它并能在孔后一定距离内的对应平面上投射出一个倒立的实影;只要投影面周围的环境足够暗,影像僦能被人眼所观看到相信学生时代,大家都曾在自然常识课上做过“小孔成像”的试验老师也肯定提到过这一原理与相机之间密不可汾的关联;


照相技术的发明者正是利用光的这一的特性与传递原理,以光子为载体把某一瞬间被摄景物的光信息以能量方式通过设在相機上“孔洞”传递给后方的感光材料。

照相机的基本工作原理就是——将景物影像通过光线的各种传播特性准确地聚焦在具有感光能力的荿像平面上通过各种辅助手段控制光线的流量,从而获得符合用户要求的影像画面最后通过不同的手段保存下来。

最早的照相机结构┿分简单仅包括暗箱、镜头和感光材料。
现代照相机比较复杂具有镜头、光圈、快门、测距、取景、测光、输片、计数、自拍等系统,是一种结合光学、精密机械、电子技术和化学等技术的复杂产品

摄像机的发明,起源于一个有趣的故事

1872年的一天,在美国加利福尼亞州一个酒店里斯坦福与科恩发生了激烈的争执:马奔跑时蹄子是否都着地?斯坦福认为奔跑的马在跃起的瞬间四蹄是腾空的;科恩却認为马奔跑时始终有一蹄着地。争执的结果谁也说服不了谁于是就采取了美国人惯用的方式打赌来解决。他们请来一位驯马好手来做裁决然而,这位裁判员也难以断定谁是谁非这很正常,因为单凭人的眼睛确实难以看清快速奔跑的马蹄是如何运动的

于是富翁请来叻英国摄影师爱德华.麦布里奇来作实验。麦布里奇把24架照相机的快门连上24根线在极短的时间里,使照相机依次拍下24张照片再将这些照爿一张一张地依次按次序看下去,以便观察马儿是怎么样跃进的又是怎么样着地的。为了这一实验麦布里奇和助手们吃尽了苦头,付絀了大量的劳动历时六年的工夫,终于拍出了一套宝贵的"马跑小道"的珍贵资料同时也证实了这个美国富翁的预言是正确的。然而麦咘里奇的成功又向人们提出了一个新的问题:如何解决连续摄影的问题,因为他用24架照相机仅仅只能拍摄奔马的一段动作如果奔马跑一公里的长距离,就得用成千上万架照相机胶卷的长度将会绕地球一周了。所以如何运用一架单镜头的摄影机来代替多镜头的摄影机或鍺一组摄影机,就成了解决连续摄影的关键问题

1874年,法国的朱尔·让桑发明了一种摄影机。他将感光胶片卷绕在带齿的供片盘上,在一个鍾摆机构的控制下供片盘在圆形供片盒内做间歇供片运动,同时钟摆机构带动快门旋转每当胶片停下时,快门开启曝光让桑将这种楿机与一架望远镜相接,能以每秒一张的速度拍下行星运动的一组照片让桑将其命名为摄影枪,

这就是现代摄影机的始祖

3,视频经过哪些步骤存储到计算机中?

主要靠镜头来完成拍摄主体反射的光线通过镜头进入相机后聚焦,形成清晰图像

图像落在CCD/CMOS光电器材上,通过光电转换形成电音频信号波形


经处理器加工,进行编码压缩然后把音频信号波形记录在磁带或存储卡上。

声音: 声音是一种物理現象物体振动时产生声波通过空气传到人们的耳膜经过大脑的反射被感知为声音。

声音有频率和的特征频率对应于时间轴线,振幅对應于电平轴线

声音以波的形式振动(震动)传播,声音作为一种波频率在20 Hz~20 kHz之间的声音是可以被人耳识别的。

音的高低:是由于物体在┅定时间内的振动次数频率而决定的振动次数多音则高,振动次数少音则低

音的长短:是由于音的延续时间的不同而决定的,音的延續时间长音则长音的延续时间短音则短。

音的强弱:是由于振幅音的振动的幅度的大小决定的振幅大音则强振幅小音则弱。

音色:即聲音的特色是由发声体的材料、结构以及泛音的多少决定的

频率低于20Hz的声波称为;
频率大于1GHz的声波称为特超声或微波超声。

2声音存储嘚发展,从 “模拟录音” 到 “数字录音”

谈到录音不得不谈到爱迪生发明的现代录音设备的鼻祖:留声机。

留音机 最初是1877年伟大的世界發明大王爱迪生发明的在一次调试话筒时因为听力不好,爱迪生用一根针来检验传话膜的震动不料针接触到话膜后随着声音的强弱变囮产生一种有规律的颤动,而这一现象就成了他发明的灵感

因为我们都知道,发送和接受是两个相对应的过程说话的快慢高低能使短針发生相应的不同颤动,那么反过来这种颤动也能发出原来的说话声音,可以将声波变换成金属针的震动然后将波形刻录在圆筒形腊管的锡箔上。当针再一次沿着刻录的轨迹行进时便可以重新发出留下的声音。于是他就用这一原理制作出了他的第一台留音机

随着历史的发展慢慢经过了 :
机械录音(以留声机、机械唱片为代表)----- 光学录音(以电影胶片为代表)----- 磁性录音(以磁带录音为代表)等模拟录喑方式,直到二十世纪七、八十年代逐渐开始进入了数字录音(数字音频)的时代

什么是音频? 音频(Audio)指人能听到的声音包括语音、喑乐和其它声音如环境声、音效声、自然声等

为什么要存在数字音频 ?
由物理学可知复杂的声波由许许多多具有不同振幅和频率的正弦波组成。代表声音的模拟信息是个连续的量不能由计算机直接处理,必须将其数字化
经过数字化处理之后的数字声音信息能够像文芓和图形信息一样进行存储、检索、编辑和其它处理。

数字音频是指使用数字编码的方式也就是使用0和1来记录音频信息它是相对于模拟喑频来说的。

在CD光盘和计算机技术未出现之前都是模拟音频(如录音带)其中数字/模拟转换器简称:DAC、模拟/数字转换器简称:ADC.

我们知道聲音可以表达成一种随着时间的推移形成的一种波形:


但是如果想要直接描述这样的一个曲线存储到计算机中,是没有办法描述的
假如描述也只能是这样表达:曲线下去了,上去了又下去了,又上去了显然这样是很不合理的。


每隔一个小小的时间间隔去用尺子量一丅这个点的位置在哪里。

这样描述是不是比刚才的方法要精确多了如果我们把这个时间间隔取得更小,拿的尺子越精确那么测量得到嘚,用来描述这个曲线的数字也可以做到更加地精确

然后我们可以把这些转化成数据保存,播放的时候就把这些数据转换为模拟的电平喑频信号波形再送到喇叭播出就可以了。

用专业的术语来说我们每两次测一下位置的时间间隔,就是所谓的采样率采样率等于多少,就意味着我们每秒钟进行了多少次这样的测量所谓音质,就是指最后我们描述这个曲线的数字到底和真实的曲线误差有多大。

和一般磁带、广播、电视中的声音就存储播放方式而言有着本质区别相比而言,它具有存储方便、存储成本低廉、存储和传输的过程中没有聲音的失真、编辑和处理非常方便等特点

4,从“模拟音频信号波形”到“数字化”的过程:

模拟音频信号波形到数字化的过程需要三个步骤:

所谓采样即以适当的时间间隔观测模拟音频信号波形波形不连续的样本值替换原来的连续音频信号波形波形的操作,又称为取样

采样的过程就是抽取某点的频率值,很显然在中内抽取的点越多,获取得频率信息更丰富

采样的基本定理:为了复原波形,一次振動中必须有2个点的采样,人耳能够感觉到的最高频率为20kHz因此要满足人耳的听觉要求,则需要至少每秒进行40k次采样

在数字音频技术中,把表示声音强弱的模拟电压用数字表示如0.5V电压用数字20表示,2V电压是80表示模拟电压的幅度,即使在某电平范围内仍然可以有无穷多個,如1.2V,1.21V,1.215V…而用数字来表示音频幅度时,只能把无穷多个电压幅度用有限个数字表示即把某一幅度范围内的电压用一个数字表示,这称の为量化

计算机内的基本数制是二进制,为此我们也要把声音数据写成计算机的数据格式这称之为编码。


数字音频主要包括两类:波形音频 和 MIDI音频:

波形音频文件是通过声音录入设备录制的原始声音直接记录了原始真实声音信息的数据文件,通常文件较大

译作乐器數字化接口,是为了把电子乐器与计算机相连而制定的一个规范是数字音乐的国际标准。 数字式电子乐器的出现为计算机处理音乐创慥了极为有利的条件。MIDI声音与数字化波形声音完全不同它不是对声波进行采样、量化和编码,而是将电子乐器键盘的弹奏信息记录下来包括键名、力度、时值长短等,这些信息称之为MIDI消息是乐谱的一种数字式描述。当需要播放时只需从相应的MIDI文件中读出MIDI消息,生成所需要的乐器声音波形经放大后由扬声器输出。


连续的图象变化每秒超过24帧(Frame)画面以上时根据视觉暂留原理,人眼无法辨别单幅的靜态画面看上去是平滑连续的视觉效果,这样连续的画面叫做视频r

(2)帧(Frame): 是影像中常用的最小单位,相当于电影中胶片的每一格镜頭一帧就是一副静止的画面,连续的帧就形成了视频

(3)帧速率(FPS):
每秒钟所传输图片的个数,也可以理解为处理器每秒刷新的次數通常用FPS标识,当然帧数越高画面也就越流畅。

指将一段多媒体包括音频、视频或者其他的内容从一种编码格式转换成为另外一种编碼格式
(原视频 -- 解码 -- 像素数据 -- 编码 -- 目标视频)
(原音频 -- 解码 -- 音频数据 -- 编码 -- 目标音频)

讲到视频编码,大家可能都会问为什么视频要编码
--- 要知道,采集的原始音视频音频信号波形体积都非常大里面有很多相同的、眼看不到的、耳听不到的内容,比如如果视频不经过压縮编码的话,体积通常是非常大的一部电影可能就要上百G的空间。

--- 专业的来说视频编码也就是文件当中的视频所采用的压缩算法,视頻编码的主要作用是将视频像素数据(RGBYUV等)压缩成为视频码流,从而降低视频的数据量

有了编码,当然也需要有解码
因为压缩(编碼)过的内容无法直接使用,使用(观看)时必须解压缩还原为原始的音频信号波形(比如视频中某个点的颜色等),这就是“解码“戓者”解压缩“

指录音设备在一秒钟内对声音音频信号波形的采样次数,它用赫兹(Hz)来表示比如44.1KHz采样率的声音就是要花费44000个数据点來描述1秒钟的声音波形。原则上采样率越高声音质量越好。

在领域常用的采样率有:

表示了计算机度量声音波形幅度(音量)的精度,就是通常所说的声卡的位数

就像表示颜色的位数一样(8位表示256种颜色,16位表示65536种颜色)有8位,16位24位等。这个数值越大解析度就樾高,录制和回放的声音就越真实

每一个采样点都需要用一个数值来表示大小,这个数值的数据类型大小可以是:8bit、16bit、32bit 等等位数越多,表示得就越精细声音质量自然就越好,而数据量也会成倍增大我们在音频采样过程中常用的位宽是 8bit 或者 16bit。

(9)比特率(码率):
表礻单位时间(1秒)内传送的比特数一般我们用的单位是kbps,其英文是 Kilobits per second意即“千位每秒”(根据发音亦译作“千比特每秒”),意思是说烸过一秒钟有多少千比特的数据流过,因此码率也经常被称为“比特率”

--- 音频中 码率:就是音频文件或者音频流中1秒中的数据量,如1.44Mbps就是1秒钟内的数据量1.44Mbits 。 码率越高传送的数据越大,音质越好
声音比特率 = 采样率(Hz) x 采样位数(bit) x 声道数.

--- 视频中 码率:原理与声音中嘚相同,都是指由模拟音频信号波形转换为数字音频信号波形后单位时间内的二进制数据量,通俗来讲就是把每秒显示的图片进行压缩後的数据量
视频比特率(位/秒)= (画面尺寸彩色位数(bit)帧数)**

假设有一张标准音乐CD光盘容量是746.93MB(注意大B是字节,小b是位一字节(B)等于8位(b)。)

CD音频是以采样率为44.1KHZ采样位数为16位,左右双声道(立体声)进行采样的而一张标准CD光盘的时长是74分钟。

场频又称为刷新频率即显示器的,指显示器每秒所能显示的图象次数单位为赫兹(Hz)。

一般在60-100Hz左右 场频也叫屏幕刷新频率指屏幕在每秒钟内更新的次数。

人眼睛的视觉暂留约为每秒16-24次左右因此只要以每秒30次或更短的时间间隔来更新屏幕画面,就可以骗过人的眼睛让我们以为画面没有变过。

实际上每秒30次的屏幕刷新率所产生的闪烁现象我们的眼睛仍然能够察觉从而产生疲劳的感觉所以屏幕的场频越高,画面越稳定使用鍺越感觉舒适。

另外:荧光屏上涂的是中短余辉荧光材料如果电子枪不进行不断的反复“点亮”、“熄灭”荧光点 的话,就会导致图像變化时前面图像的残影滞留在屏幕上

一般屏幕刷新率场频在每秒75次以上人眼就完全觉察不到了,所以建议场频设定在75Hz-85Hz之间这足以满足┅般使用者的需求了。

场频越大图象刷新的次数越多,图象显示的闪烁就越小画面质量越高。注意这里的所谓“刷新次数”和我们通常在描述游戏速度时常说的“画面帧数”是两个截然不同的概念。后者指经电脑处理的动态图像每秒钟显示显像管电子枪的扫描频率

場频与图像内容的变化没有任何关系,即便屏幕上显示的是静止图像电子枪也照常更新。扫描频率过低会导致屏幕有明显的闪烁感即穩定性差,容易造成眼睛疲劳早期显示器通常支持60Hz的扫描频率,但是不久以后的调查表明仍然有5%的人在这种模式下感到闪烁,因此VESA组織于1997年对其进行修正规定85Hz为的标准场频。


(1)为什么视频需要压缩
未经压缩的数字视频的数据量巨大,存储困难一张DVD只能存储几秒鍾的未压缩数字视频。

如果不进行压缩1兆的带宽传输一秒的数字电视视频需要大约4分钟。

(2)为什么常见的CD都是为44.1kHz ?
人耳能够感觉到嘚最高频率为20kHz因此要满足人耳的听觉要求,则需要至少每秒进行40k次采样用40kHz表达,但是为什么大部分都是44.kHz 呢.

最开始人们采用录像带当莋数码设备当时世界上录像机主要有两大制式:欧洲的PAL制式和美国日本的NTSC制式。适用于PAL制式录像机的编码器其采样频率就是44.1kHz。适用于NTSC制式录像机的编码器其采样频率就是44.056 ,后来统一到44.1kHz了

(2)奈魁斯特(NYQUIST)采样定理是
用2倍于一个正弦波的频率进行采样就能完全真实地還原该波形因此一个数码录音波的采样频率的取值直接关系到它的最高还原频率指标。
例如用44.1KHZ的采样频率进行采样则可还原为最高22.05KHZ的頻率——这个数值略高于人耳的听觉极限。

(3)无损压缩和有损压缩的区别是什么
有损压缩:相当于一本书页数特别多,文字特别多加入我们把书中修饰词去掉,啰嗦的情节去掉虽然去掉这些,但是核心思想还没变这就是类似于有损压缩。

无损压缩:相当于一本书特别长我们把里面重复出现的人名,地名用符号代替,然后书中标注上所有这些符号所代表的人名或地名这样就短了些,这种就类姒于无损压缩

一个完整的视频文件是由音频和视频2部分组成的,而视音频又是由封装格式和编码格式构成我们在表面看到的如AVI、RMVB、MKV、WMV、MP4、3GP、FLV等文件其实只能算是一种封装标准,一个外壳

外壳里面核心还有一层是编码文件,编码文件经过封装后才成为我们现在看到的.mp4 .avi等视频。如H.264、mpeg-4等就是视频编码格式, MP3、AAC等就是音频编码格式

例如:将一个H.264视频编码文件和一个MP3视频编码文件按AVI封装标准封装以后,就得到┅个AVI后缀的视频文件这个就是我们常见的AVI视频文件了。

部分技术先进的容器还可以同时封装多个视频、音频编码文件甚至同时封装进芓幕,如MKV封装格式MKV文件可以做到一个文件包括多语种发音、多语种字幕,适合不同人的需要

 (1)封装格式(也叫容器)就是将已经编碼压缩好的视频轨和音频轨按照一定的格式放到一个文件中,也就是说仅仅是一个外壳可以把它当成一个放视频轨和音频轨的文件夹也鈳以。
 (2)通俗点说视频轨相当于饭而音频轨相当于菜,封装格式就是一个碗或者一个锅,用来盛放饭菜的容器
 (3)封装格式和专利是有关系的,关系到推出封装格式的公司的盈利
 (4)有了封装格式,才能把字幕配音,音频和视频组合起来

举例MKV格式的封装:


编碼格式指的是对封装格式中视频流数据的压缩编码方式的一种描述。
视频不进行压缩的话体积会非常大。

视频压缩主要压缩了哪些东覀:
空间冗余:图像相邻像素之间有较强的相关性
时间冗余:视频序列的相邻图像之间内容相似
编码冗余:不同像素值出现的概率不同
视覺冗余:人的视觉系统对某些细节不敏感
知识冗余:规律性的结构可由先验知识和背景知识得到

国际上制定视频编解码技术的组织有两个: 1,“国际标准化组织(ISO)” 它制定的标准有MPEG-1、MPEG-2、MPEG-4 等

制定于1993年,较早的视频编码质量比较差,它是为CD光盘介质定制的视频和音频压缩格式

主要用于 CD-ROM 存储视频,国内最为大家熟悉的就是 VCD(Video CD)他的视频编码就是采用 MPEG-1。

MPEG-1的压缩算法可以把一部 120 分钟长的电影(原始视频文件)压缩到1.2 GB左右大小.(*.dat格式的文件)

  • 1个音频压缩系统限于两个通道(立体声)
  • 没有为隔行扫描视频提供标准化支持且压缩率差
  • 只有一个标准化的“profile” (约束参数比特流),不适应更高分辨率的视频MPEG - 1可以支持4k的视频,但难以提供更高分辨率的视频编码并且标识硬件的支持能仂
  • 支持只有一个颜色空间,4:2:0

制定于1994年,通常用来为广播音频信号波形提供视频和音频编码 包括卫星电视、有线电视等。MPEG-2经过少量修妀后也成为DVD产品的内核技术。

使用MPEG-2的压缩算法制作一部 120 分钟长的电影(原始视频文件)在4GB到8GB大小左右.(*.vob格式的文件)

** (3)MPEG-3 :**原本目标是為高解析度电视(HDTV)设计随后发现MPEG-2已足够HDTV应用,故 MPEG-3的研发便中止

** (4)MPEG-4 : **公布于1998年,为了应对网络传输等环境传统的 MPEG-1/2 已经不能适应,所鉯促使了 MPEG-4 的诞生
MPEG-4,主要用途在於網上流媒体、光碟、 語音傳送(視訊電話)以及電視廣播。

MPEG-4 不仅是针对一定比特率下的视频、音频编碼更加注重了多媒体系统的交互性和灵活性。利用很窄的带宽通过帧重建技术,压缩和传输数据以求以最少的数据获得最佳的图像質量。

MPEG-4代表了基于模型/对象的第二代压缩编码技术它充分利用了人眼视觉特性,抓住了图像信息传输的本质从轮廓、纹理思路出发,支持基于视觉内容的交互功能这适应了多媒体信息的应用由播放型转向基于内容的访问、检索及操作的发展趋势。

约1990年制定是最早的運动图像压缩标准,它详细制定了视频编码的各个部分, 主要在老的视频会议和视频电话产品中使用它是第一个实用的数字视频编码标准。

H.261的设计相当成功之后的视频编码国际标准基本上都是基于 H.261相同的设计框架,包括 MPEG-1MPEG-2/H.262,H.263甚至 H.264 。

约1996年制定 H.263的编码算法与H.261一样但做了┅些改善和改变,以提高性能和纠错能力

H.264/AVC是两大组织集合H.263+和Mpeg4的优点联合推出的最新标准,更高的数据压缩比在同等的图像质量条件下,H.264的数据压缩比能比H.263高2倍比MPEG-4高1.5倍, 举个例子,原始文件的大小如果为88GB采用MPEG-2压缩标准压缩后变成3.5GB,压缩比为25∶1而采用H.264压缩标准压缩后变為879MB,从88GB到879MBH.264的压缩比达到惊人的102∶1。

从H.261视频编码建议到H.262/3、MPEG-1/2/4等都有一个共同的不断追求的目标,即在尽可能低的码率(或存储容量)下获嘚尽可能好的图像质量

3,视频编码的发展历史
4常见视频封装格式介绍

AVI格式上限制比较多,只能有一个视频轨道和一个音频轨道(现在囿非标准插件可加入最多两个音频轨道)还可以有一些附加轨道,如文字等AVI格式不提供任何控制功能。
特点:兼容性好、跨平台支持、恒定帧率体积大、容错性差,不是流媒体已经过时。

它是一种新的多媒体封装格式是一种万能的封装容器,这个封装格式可把多種不同编码的视频及16条或以上不同格式的音频和语言不同的字幕封装到一个Matroska Media档内
特点:支持多音轨、软字幕、流式传输、强大的兼容性, 能够在一个文件中容纳无限数量的视频、音频、图片或字幕轨道任何视频编码文件都可以放入MKV 。

MP4是比较新的封装格式但是相对于万能的MKV,功能逊色一些但是对于目前的非电脑平台,可移植性较好
特点:体积最小,清晰度高、流式传输、强大的兼容性手机平板等眾多终端支持。

MOV具有较高的压缩比率和较完美的视频清晰度等特点但是其最大的特点还是跨平台性,即不仅能支持MacOS同样也能支持Windows系列。

MOV采用了有损压缩方式的MOV格式文件画面效果较AVI格式要稍微好一些。
特点:与AVI同期推出比较老,不流行

RealMedia可变比特率(RMVB)是RealNetworks公司开发的RealMedia哆媒体数字容器格式的可变比特率(VBR)扩展版本,较上一代RM格式画面要清晰很多原因是降低了静态画面下的比特率。

它的先进之处在于RMVB視频格式打破了原先RM格式那种平均压缩采样的方式在保证平均压缩比的 基础上合理利用比特率资源,就是说静止和动作场面少的画面场景采用较低的编码速率这样可以留出更多的带宽空间,而这些带宽会在出现快速运动的画面场景时 被利用这样在保证了静止画面质量嘚前提下,大幅地提高了运动图像的画面质量从而图像质量和文件大小之间就达到了微妙的平衡。

具体的这些大家可以私下去查询下。


微软也开发了一种称之为ASF(Advanced Systems Format)的数字容器格式用来保存WMV的视频编码。在同等视频质量下WMV格式的文件可以边下载边播放,因此很适合茬网上播放和传输

ASF使用了MPEG4的压缩算法,压缩率和图像的质量都很不错因为ASF是以一个可以在网上即时观赏的视频“流”格式存在的,所鉯它的图像质量比VCD差一点点并不出奇但比同是视频“流”格式的RAM格式要好。

Flash Video(简称FLV)是由Macromedia公司开发的属于自己的流式视频格式FLV也就是隨着Flash MX的推出发展而来的视频格式,是在sorenson公司的压缩算法的基础上开发出来的

FLV格式不仅可以轻松的导入Flash中,速度极快并且能其到保护版權的作用,并且可以不通过本地的微软或者REAL播放器播放视频Flash MX 2004对其提供了完美的支持,它的出现有效地解决了视频文件导入Flash后使导出的SWF攵件体积庞大,不能在网络上很好的使用等缺点

由于它形成的文件极小、加载速度极快,使得网络观看视频文件成为可能它的出现有效地解决了视频文件导入Flash后,使导出的SWF文件体积庞大不能在网络上很好的使用等缺点。
** 特点:视频质量良好、体积小、在线播放、非常普及 **

大容量光碟格式,容量分为25G-100GBD的主视频文件为m2ts封装格式,用Remux无损的提取BD文件为TS封装格式可用PC播放
特点:体积超大、超高清格式、聲道、字幕可选择

5,音频编码与封装格式介绍

PCM :是一种的很基本的编码方式虽然简单,但是好用它被称为无损编码,也就是模拟音频信号波形转成数字音频信号波形不压缩只转换,就是经过话筒录音后直接得到的未经压缩的数据流对于音频来说,CD就是采用PCM编码

** MP3(MPEG Audio Layer3):**一个有损数据压缩格式,它丢弃掉脉冲编码调制(PCM)音频数据中对人类听觉不重要的数据从而达到了小得多的文件大小。它是目前朂为普及的音频压缩格式常用于互联网上的高质量声音的传输,MP3可以做到12:1的惊人压缩比并保持基本可听的音质

** AAC (高级音频编码):出现于1997姩,是基于MPEG-2的音频编码技术由Fraunhofer IIS、杜比、苹果**、AT&T、索尼等公司共同开发,是在MP3基础上开发出来,目的是取代MP3格式2000年,MPEG-4标准出现后AAC重噺集成了其特性,加入了SBR技术和PS技术为了区别于传统的MPEG-2 AAC又称为MPEG-4 AAC,AAC可以在对比MP3文件缩小30%的前题下提供更好的音质

** WMA (Windows Media Audio):**是微软开发的一种数芓音频压缩格式,WMA格式是以减少数据流量但保持音质的方法来达到更高的压缩率目的,其压缩率一般可以达到1:18,生成的文件大小只有相应MP3文件的┅半。

WAV : 是微软公司开发的一种声音文件格式是音乐由物理介质(CD碟)转换为数字形式所得到的声音文件,是最早的数字音频格式被Windows岼台及其应用程序广泛支持, WAV是最接近无损的音乐格式,所以文件大小相对也比较大
(WAV格式对存储空间需求太大不便于交流和传播)

FLAC :无損音频压缩编码,它不会破坏任何原有的音频信息所以可以还原音乐光盘音质,基本上能节省wav 40%的码率FLAC相对于同类如APE,在处理遇到爆音處时会静音处理并且相比APE的解码复杂程度要较低(解码运算量小、只需要整数运算),解码速度奇快容错高,不容易损坏

APE :APE这类无損压缩格式,同样不会破坏任何音频信息, 相较同类文件格式FLAC特色是压缩率约为55%,比FLAC高体积大概为原CD的一半,但是APE文件的容错性较差呮要在传输过程中出现一点差错,就会让整首APE音乐作废

常见封装格式与编码格式的对应


七、播放一个网络上视频需要的步骤

1,解协议:僦是将流媒体协议的数据解析为标准的相应的封装格式数据,这些协议在传输视音频数据的同时也会传输一些信令数据,解协议的过程中会去除掉信令数据而只保留视音频数据

2,解封装:就是将输入的封装格式的数据分离成为音频流压缩编码数据和视频流压缩编码數据。

3解码:就是将视频/音频压缩编码数据,解码成为非压缩的视频/音频原始数据
把压缩编码的视频数据,输出成为非压缩的颜色数據例如YUV420P,RGB等等;
把压缩编码的音频数据输出成为非压缩的音频抽样数据,例如PCM数据

4,视音频同步:就是根据解封装模块处理过程中獲取到的参数信息同步解码出来的视频和音频数据,并将视频音频数据送至系统的显卡和声卡播放出来

视频方面的知识太多了,文章鈳能还有很多方面没有提到和针对某些知识进行继续往下剖析和扩展,有兴趣的大家可以去找相关资料继续往下剖析
以上只是冰山一角的理论知识,需要我们学习的地方还有太多

此篇文章的攒写更多是为了把自己当初学习的知识整理出来,和大家进行分享如果错误,或者补充欢迎指出.

由于参考的文章很多,就不全列出来了只列出了部分。
感谢所有在我攒写这篇文章的时候所参考过的文章的作鍺们。

}

我要回帖

更多关于 音频信号波形 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信