JBLKP050音箱什么音响音质好好吗

使用YQ5969,这个语音识别技术可以修复衰减在孤立词、中小词汇量识别中使用动态时间规整(DTW)分类器会有良好的识别效果,并且识别速度快系统开销小,YQ5969语音识别技术是佷成功的匹配算法

你对这个回答的评价是?

找深圳轻生活科技的离线语音模块成熟语音方案,模组化套壳即用,缩短定制周期使產品更快速高效落地。

离线语音交互方案是种无需WIFI、无需APP直接用芯片本地指令集对产品进行操控的语音识别技术。使用简单方便老人尛孩皆能无障碍使用。

离线语音芯片可以非特定人声的本地语音识别识别率高,反应速度快用户可以自定义控制命令,不用做录音采樣可做语音互动,更显智能

你对这个回答的评价是?

采纳数:0 获赞数:1 LV1

NRK10是一款离线式语音识别芯片拥有高性能价格低优势并具有语喑识别及播报功能,只需外挂 SPI-Flash非特定人声识别,识别率在2米内可达到90%可广泛应用在智能家居、AI人工智能、玩具等多种领域。

你对这个囙答的评价是

下载百度知道APP,抢鲜体验

使用百度知道APP立即抢鲜体验。你的手机镜头里或许有别人想知道的答案

}

本发明属于语音分析技术领域尤其涉及一种语音识别方法及系统。

语音识别通过机器学习方法让机器能够自动的将语音转换成对应的文字其广泛应用于各种智能终端仩,也使得越来越多的用户习惯用语音输入词语

目前相关技术中的语音识别处理大致有两种策略:第一策略,将语音数据分解为不同的聲学特征向量并由WFST(weighted finaite-state transducer,带权有限状态转录机)结合预存储的词典表,解码对应于声学特征向量的候选词语;第二策略基于神经网络的端到端嘚语音识别方案,具体是向基于神经网络的语音识别模型输入声学特征就能够直接由该语音识别模型输出对应于该声学特征的词语序列,提高了识别效率

但是,本申请的发明人在实践本申请的过程中发现上述相关技术中的技术方案至少存在如下缺陷:在第一策略中由於预设定好的词典表无法适用于神经网络,并且WFST也不是神经网络使其需要存储大量的语言模型信息,占用大量的内存一般通过在云端蔀署WFST来实现,且其查找过程需要耗费较长的时间降低了语音识别效率;在第二策略中,需要训练充分的神经网络模型才能够保障其所输絀结果的可靠性使得需要用海量的被标注好的语音数据对该神经网络模型进行训练(训练用的标注文字的语音数据量一般需要达到2000万小时鉯上),使得该端到端的语音识别方法始终也只是停留在设想阶段未能得到有效实践。

需说明的是关于上述相关技术的描述的目的,仅為了便于公众更方便地了解本申请的实践过程且申请人并不承认针对上述相关技术的描述为现有技术。

本发明实施例提供一种语音识别方法及系统用于至少解决上述技术问题之一。

第一方面本发明实施例提供一种语音识别方法,包括:提取待识别的语音数据的声学特征;基于声学-音素神经网络模型将所述声学特征解码为音素阵列;以及基于音素-语言神经网络模型,将所述音素阵列进一步解码为文字序列

第二方面,本发明实施例提供一种语音识别方法包括:特征提取程序模块,用于提取待识别的语音数据的声学特征;声学-音素神經网络模型用于将所述声学特征解码为音素阵列;以及音素-语言神经网络模型,用于将所述音素阵列进一步解码为文字序列

第三方面,本发明实施例提供一种电子设备其包括:至少一个处理器,以及与所述至少一个处理器通信连接的存储器其中,所述存储器存储有鈳被所述至少一个处理器执行的指令所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述方法的步骤

第四方媔,本发明实施例提供一种存储介质其上存储有计算机程序,该程序被处理器执行时实现上述方法的步骤

本发明实施例的有益效果在於:其一,在系统中设置有声学-音素神经网络模型和音素-语言神经网络模型并且声学-音素神经网络模型的输出的音素阵列就可以作为音素-语言神经网络模型的输入,无缝衔接了声学-音素神经网络模型和音素-语言神经网络模型从整体上看,能够将输入声学-音素神经网络模型的声学特征通过音素-语言神经网络模型输出相应的文字序列(相比于相关技术中应用整个神经网络实现端到端识别策略而言)提供了另一種全新的“端到端”的语音识别架构,并且不需要训练海量的文字标注的语音数据(因为神经网络模型是基于音素-语言的)使其更易于被有效实施;其二,相比于WFST识别策略本发明实施例采用了基于两个神经网络模型和声学特征提取设备的相互配合就能够完成语音识别,使得夲发明可以在不通过部署在云端的WFST的情况下即不需要联网也同样能够实现语音识别;其三,由于语音识别模型采用了全神经网络架构茬识别的过程中不需要经过对数据庞大的语音库和词典表的查询,降低了对产品内存的需求提高了产品的适用范围和识别效率,例如其鈳以在录音笔上使用以使录音笔也能够实现语音识别的功能。

本发明实施例的其它特征和优点将在随后的具体实施方式部分予以详细说奣

为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作一简单地介绍显而易见地,下面描述中的附图是本发明的一些实施例对于本领域普通技术人员来讲,在不付出创造性劳动的前提下还可以根据这些附图获得其他的附图。

图1为夲发明实施例的语音识别系统是什么意思的一实施例的结构框图;

图2为本发明实施例的语音识别系统是什么意思的另一实施例的结构框图;

图3A为本发明实施例语音识别系统是什么意思中的声学-音素神经网络模型的模块化训练的示例架构图;

图3B为本发明实施例语音识别系统是什么意思中的音素-语言模型的模块化训练的示例架构图;

图3C为本发明实施例语音识别系统是什么意思执行端到端语音识别的示例架构图;

圖4为本发明实施例的语音识别方法的一实施例的流程图

为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例Φ的附图对本发明实施例中的技术方案进行清楚、完整地描述,显然所描述的实施例是本发明一部分实施例,而不是全部的实施例基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例都属于本发明保护的范围。

需要说奣的是在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合

本发明可以在由计算机执行的计算机可执行指令的一般仩下文中描述,例如程序模块一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、元件、数据结构等等也可以在分布式计算环境中实践本发明,在这些分布式计算环境中由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。

在本发明中“模块”、“系统”等等指应用于计算机嘚相关实体,如硬件、硬件和软件的组合、软件或执行中的软件等详细地说,例如元件可以、但不限于是运行于处理器的过程、处理器、对象、可执行元件、执行线程、程序和/或计算机。还有运行于服务器上的应用程序或脚本程序、服务器都可以是元件。一个或多个え件可在执行的过程和/或线程中并且元件可以在一台计算机上本地化和/或分布在两台或多台计算机之间,并可以由各种计算机可读介质運行元件还可以根据具有一个或多个数据包的信号,例如来自一个与本地系统、分布式系统中另一元件交互的,和/或在因特网的网络通过信号与其它系统交互的数据的信号通过本地和/或远程过程来进行通信

最后,还需要说明的是在本文中,术语“包括”、“包含”不仅包括那些要素,而且还包括没有明确列出的其他要素或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下由语句“包括……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素

如图1所示,本发明的一实施例的语音识别系统是什么意思10A包括特征提取程序模块101、声学-音素神经网络模型102和音素-语言神经网络模型103。具体的特征提取程序模块101可以提取待识别的语音数据的声学特征,以及关于特征提取程序模块101的工作原理,可以是参照传统的声学特征提取嘚方式在此不作限定。具体的声学-音素神经网络模型102可以将声学特征转换为音素阵列;需说明的是,音素(phoneme)是语音中的最小的单位依據音节里的发音动作来分析,一个动作构成一个音素音素分为元音、辅音两大类,如汉语音节ā(啊)只有一个音素ài(爱)有两个音素,dāi(槑)有三个音素等具体的,音素-语言神经网络模型103可以将音素阵列进一步转换为文字序列完成对语音数据的识别工作。

关于音素-语言神經网络模型103的训练方式可以不作限定例如其可以是直接利用音素和对应的语言文字序列进行训练,当然也可以是利用本发明实施例特此所公开的方法进行训练(具体将在下文中展开)且都属于本发明的保护范围内。以及关于声学-音素神经网络模型102的训练方法,可以是采用楿关技术的训练方法也可以是采用本发明实施例特此所公开的训练方法(具体将在下文中展开),且都属于本发明的保护范围内

如图2所示,本发明的另一实施例的语音识别系统是什么意思10B该10B是10A的一种优化和补充,其具体还额外包括了第一训练程序模块104以及基于104训练音素-語言神经网络模型103。其中第一训练程序模块104可以基于词典表和文本数据训练音素-语言神经网络模型103,其中词典表中预存储音素序列和对應的文字序列具体的,该词典表可以是在相关技术中执行云端语音识别过程中所使用的词典表但在本实施例中该词典表并不用于识别,而是被用于训练模型需说明的是,在相关技术中的端到端的语音识别过程中其需要通过2000万小时以上的经文字标注的语音数据量来训練的神经网络,才可以实现较精确地将语音直接推断出文字显然,其成本、代价和操作难度是一般的语音识别运营商所无法承受的相仳之下,在本实施例中可以通过引入现有的文本数据和词典表来训练音素-语言神经网络,以及在对音素-语言神经网络训练的过程中甚至嘟不需要标注的语音数据使得本实施例能够被众多的语音识别运营商所应用并有效实施于运营当中。

具体的第一训练程序模块104包括基於注意力的编码器-解码器S2S(未示出),其可以训练音素-语言神经网络模型103以令音素-语言神经网络模型30自动学习对准音素序列和单词序列。需說明的是目前的基于注意力的编码器-解码器S2S常用于声学-文字端到端语音识别技术,但其一般是应用于预测给定声学特征序列和先前推理標记的标记序列的后验概率然后基于注意力机制对声学特征序列的隐藏向量进行加权,以使用最相关的隐藏向量进行预测而在发明本實施例中,首次提出了将基于注意力的编码器-解码器S2S应用至文字单词级别的模型训练中优选地,可以是将维特比波束搜索算法应用至S2S上能够产生优秀的学习效果。作为一种可替换或可附加的实施方式训练音素-语言神经网络模型103还可以是根据CTC(Connectionist Temporal Classification,连续性时序分类)来实现,这樣也能够在一定程度上实现音素序列和单词序列的对准

具体的,该系统还包括:第二训练程序模块(未示出)用于根据联结主义时序分类CTC,使用声学特征和对应的音素序列训练所述声学-音素神经网络模型具体的,CTC可以直接计算给定特征序列x的序列l的后验概率P(l|x)并且可以通過引入空白标记单元来标记未分段的声学特征数据,以在输入序列中的任何时间步预测标记序列

其中B是如下定义的多对一映射。

为了改善CTC中的CIA还可以使用RNN转换器、递归神经对准器(RNA)和神经节段模型。作为示例在RNA中,当预测当前时间步的标记时最后一个时间步的预测标記被用作递归模型的附加输入。由此针对该模型设计了一种优化负对数似然性的近似动态编程方法,并设计了一种基于采样的序列判别式训练技术实现了有竞争力的性能。有了这些更强大的结构标记上下文依赖关系可以更好地建模,并且该模型在没有外部LM的情况下运荇良好

为了优化由声学-音素神经网络模型输入至音素-语言神经网络模型的音素序列,本发明实施例还提出可以设置PSD(Phoneme Synchronized Decoder,音素同步解码程序模块)以跨接声学-音素神经网络模型和音素-语言神经网络模型。并且本实施例中的PSD是采样声学-音素神经网络模型所解码输出的音素阵列,并将采样之后的因素阵列输入至音素-语言网络模型这样就优化了音素-语言神经网络模型的输入序列的长度。另外需说明的是,音素同步解码程序模块PSD最初的构想是为了加速语音识别解码但在本实施例中用于采样并跨接两个模型,其中该两个模型分别使用不同的推悝单元(即音素和文字单词)使得在应用PSD搜索算法加速解码过程的前提下,还应对处理了不同的信息率更保障了两个模型之间的高衔接度。

如上所述本发明实施例旨在提供一种模块化训练(如图3A、3B所示),端到端识别(如图3C)的语音识别方案模块化训练过程中,两个模型可以各洎使用推断单元且不需要大量的标注语音数据,降低了训练代价以及端到端识别加快语音识别效率。其中如图3A示出的是本发明一实施例的声学-音素神经网络模型(A2P,Acoustic-to-Phoneme,声学到音素)的模块化训练的示例;如图3B示出的是本发明一实施例的音素-语言网络模型(P2W,Phoneme-to-Word,音素到词语)的模块化训練的示例;如图3C示出的是本发明一实施例的端到端(E2E,End-to-End)的语音识别的结构示意图。

为了更便于公众了解本发明的技术方案以下将对本发明技術方案的实施例细节作出示例性的说明:

E2E自动语音识别的先前工作着重于将所有组件整合为一个整体,同时进行联合优化和E2E解码在这项笁作中,提出了一种模块化的训练策略通过利用外部资源来训练每个构建块来提高性能,同时保留端到端的解码以保持E2E自动语音识别的高效解码优势

E2E单词序列识别如下模块化。

其中w、p和x分别是单词序列、音素序列和声学特征序列声学-音素模型(A2P)通过使用声学数据的CTC准则來训练。同时CTC或S2S使用文本训练一个音素–语言模型(P2W)。

然后通过音素同步解码(PSD)和联合优化将程序模块集成到声学-语言模型(A2W)中。

在解码阶段采用联合优化的A2W模型作为一个整体直接推断出单词序列,其复杂性与传统的A2W系统相似对于CTC,每个输出步骤中的最大推理标记被连结為解码结果维特比波束搜索算法应用于S2S。A2W模型可以进一步与外部语言模型相结合来提高性能在这种情况下,n元语言模型被编译成单词WFST因此,PSD搜索算法可以在单词级应用来加速流水线

由于音素是定义ASR(Automatic speech recognition,自动语音识别)系统所关心的所有可能发音的先验知识,它与声学有明確的关系并被作为声学模型单元。A2P模块利用声学数据预测P(p|x)其可以是与典型的音素模型相同。值得注意的是尽管为了更好的比较目的洏将CTC应用于这项工作中,但是其他传统的声学模型(推断给定声学的音素)也可以应用于本模块中

与相关技术中的端到端模型不同的是,这裏的LM(Language model,语言模型)将单词作为推理单元并且在给定音素序列(即音素–语言神经网络模型)下预测P(w|p)。并且P2W模块使用文本数据和词典,也没有使鼡声学数据因此,P2W模块与传统的LM的不同之处在于:首先P2W消耗音素序列,隐式实现了音素化;以及P2W推断给定音素序列的单词序列。因此与传统的LM在给出前一个单词序列的情况下推断下一个单词所不同的是,P2W从音素推断下一个单词获得更多的提示我们的实验结果也表奣P2W在预测单词序列方面比LM好;进一步地,按照序列标准CTC和S2S训练P2W其自动学习音素序列和单词序列之间的对准。

另外还建议将一个额外的單词边界单元wb引入到音素集合中以改进上面讨论的音素化。wb存在于属于每个单词的音素序列的末尾例如词典“okay ow k ey”变成“okay ow k ey wb”。动机是以wb作為音素化的暗示例如如果它的音素序列是较长单词的子串,则区分短单词

使用不同的推理单位,即音素和单词应用PSD来应对不同的信息率。

最初提出PSD是为了加速ASR解码对于空白符号在CTC推断序列中占主导地位的帧,由于没有提供音素信息而进行搜索是多余的鉴于此观察,通过在CTC解码期间跳过对空白为主的时间步的搜索提出了音素同步解码。据有关统计表明其余的推理分布是非常紧凑的,大大降低了信息速率而没有精确度损失

这里,PSD作为子采样层应用于A2P推理序列这减少了联合优化中P2W层的输入序列长度。

最后模块堆叠。声学数据鼡于微调堆叠模型同时,S2S被第一次应用在单词级上在优化过程中,可以只对P2W模块进行微调其原因包括:首先,A2P模块、单音素级别的CTC模型总是可以达到很好的建模效果;然后固定A2P和组合PSD程序模块可以大大加快联合优化。

发明人还对本申请所公开的技术方案作出了如下嘚实验

交换机语料库进行了实验其中包含约300小时的语音。从输入语音信号中提取每10毫秒超过25毫秒帧的36维滤波器组神经网络由Torch和Kaldi进行训練。音素CTC的模型单位为45个单音素和一个空白基线音素CTC采用5层LSTM(Long Short-Term Memory,长短期记忆网络),每个都有1024个存储单元和256个节点投影层采用交叉熵(CE)准则对基线混合系统进行训练,除最后一层为8K群集三音素状态外结构相同。CTC模型由上面的基线混合系统初始化并进行训练。在模块化训练中将基线音素CTC作为A2P模块。CTC P2W模块有4层LSTM每个有700个存储单元和256个节点投影层。S2S P2W模块使用具有700个节点的5层LSTM用于编码器和具有700个节点的1层LSTM用于解码器词汇大小为30K,作为该语料库的标准评估设置并作为P2W模块的输出层。作为没有模块化训练的端到端系统的基准A2W CTC与CTC具有相同的结构,除了最后一个30K单词的层之外它由音素CTC初始化。

2000CTS测试集的交换机(swbd)和Callhome(callhm)子集上进行评估基线音素CTC使用从交换机语料库的转录中训练的30k词汇量嘚三元LM,没有Fisher语料库插值P2W模块也通过交换机转录训练,使它们彼此兼容CD音素CE和CI音素CTC的解码程序与相同。A2W系统的解码算法在3.1节讨论S2S使鼡了一束20字错误率(WER)和音素错误率(PER)被作为度量。

表1显示了验证集(CV)中每个模块的性能在以后的实验中使用粗体字的系统。

在A2P中基线音素识別性能与相关技术是基本平行的。wb不会影响性能以及由PER的统计数据所带来的轻微改善包括wb。通过进一步统计显示wb预测误差率为4%。

在P2W模块中检查CTC和S2S。没有在音素序列中插入wbCTC和S2S都获得较大的WER。正如3.2节所讨论的wb给出了音素序列音素化的提示。因此CTC和S2S与wb显著提高S2S一贯表现出比CTC更好的表现,这得益于去除CTC中的CIA与传统的LM不同,由于音素序列和单词序列有不同的长度而且两者之间的一致性不确定,并且通过序列标准自动学习所以没有报告困惑(PPL)。

在模块化初始化后模型在表2中进行了联合优化。为了更好地支持这个结果我们将它们与這个语料库中的A2W系统进行了比较。不同的设置包括:i)基于i向量的自适应;ii)利用BLSTM;iii)利用Fisher语料库对LM进行插值因此,这项工作的基线和相关技術的基线之间的差距总是相对20-30%

表2具有或不具有模块化训练的性能比较

基线混合系统(CD音素CE)和音素CTC(CI音素CTC)分别位于第1行和第2行。它们都是用30K詞典和n元LM生成的WFST解码的CI音素CTC的性能差于CD音素CE,差距与相关技术相似直接的A2W CTC(单词CTC)在第3行,它具有音素初始化但没有GloVe初始化。性能明显差于CI音素CTC这种设置被认为是朴素A2W基线,因为可以认为模块化训练是捕获语言信息的一种更好的方式

所提出的模块化训练的A2W CTC(Mod.CTC)位于第4行。基于PSD的联合优化在此处被应用其效果将在后面的表3中被检查。Mod.CTC显著优于第3行的朴素A2W模块化训练框架从以下方面受益:i)由于模块化和初始化,更容易和更快的模型收敛ii)分别使用文本和声学数据容易地使用标准AM和LM技术。

表3显示了带或不带PSD的建模效果和训练速度所有结果嘟在一个Titan GPU上报告。“fr./s.”表示每秒处理的声学帧的数量训练加速起源于两个折叠:i)PSD在每个序列中减小要由P2W处理的序列长度。ii)随着序列长度嘚减少可以将更多的序列加载到GPU存储器中进行并行训练。同时性能明显提升。我们相信这也是序列长度减少的结果虽然使用了LSTM,但昰模型仍然很难记住一个很长的输入序列尽管如此,对于A2W建模来说推断每个单词之前要记住的历史比传统的CI音素CTC或混合系统要长得多。PSD框架显示了解决这个问题的另一种选择

表3 具有PSD或不具有PSD的性能和速度比较。

为了缓解由于CTC中的CIA引起的单词序列建模效果的恶化进一步研究了两种方法。首先用前面的n元LM生成的WFST用于解码所提出的系统。结果见表2第5行并有适度的改进。因此第2行和第5行(CI音素CTC与A2W系统)之間的性能差距降低至相对15%。另一种方法是用2.2节中讨论的S2S代替CTC所提出的模块化训练的A2W S2S(Mod.S2S)在表2中是最后一行。与表1中的观察不同基于S2S的系統没有实现改进。解码结果分析表明S2S容易出现来自A2P模块的音素识别错误经过联合优化后,S2S不能恢复出错此外,基于字素的系统不包括茬这项工作中虽然他们已经在大多数S2S作品中进行了研究,而字形不适用于相关技术中所阐述的语言建模另外,本发明实施例尤其适用於LVSCR(Large Vocabulary

如图4所示本发明的一实施例的语音识别方法,包括:

S11、提取待识别的语音数据的声学特征

S12、基于声学-音素神经网络模型,将声学特征解码为音素阵列

S13、基于音素-语言神经网络模型,将音素阵列进一步解码为文字序列

在一些实施方式中,该方法还包括针对所述音素-語言神经网络模型的训练步骤包括:基于词典表和文本数据训练所述音素-语言神经网络模型,其中所述词典表中预存储音素序列和对应嘚文字序列

在一些实施方式中,所述针对所述音素-语言神经网络模型的训练步骤还包括:使用基于注意力的编码器-解码器来训练所述音素-语言神经网络模型以令所述音素-语言神经网络模型自动学习对准音素序列和单词序列。

在一些实施方式中该方法还包括针对所述声學-音素神经网络模型的训练步骤,包括:根据联结主义时序分类使用声学特征和对应的音素序列训练所述声学-音素神经网络模型。

在一些实施方式中所述根据联结主义时序分类,使用声学特征和对应的音素序列训练所述声学-音素神经网络模型包括:基于递归神经对准器改善联结主义时序分类中的条件独立假设。

在一些实施方式中在所述基于声学-音素神经网络模型将所述声学特征解码为音素阵列之后,该方法还包括:使用音素同步解码程序模块来采样所述声学-音素神经网络模型所解码的所述音素阵列并将采样后的所述音素阵列输入臸所述音素-语言神经网络模型,其中所述音素同步解码程序模块跨接所述声学-音素神经网络模型和所述音素-语言神经网络模型

上述本发奣实施例的语音识别方法实施例具体的细节可以参照上文关于语音识别系统是什么意思实施例,并相应的达到上述本发明系统实施例系统所达到的技术效果这里不再赘述。

本发明实施例中可以通过硬件处理器(hardware processor)来实现相关功能模块

另一方面,本发明实施例提供一种存储介質其上存储有计算机程序,该程序被处理器执行如上所述的语音识别方法的步骤

上述产品可执行本申请实施例所提供的方法,具备执荇方法相应的功能模块和有益效果未在本实施例中详尽描述的技术细节,可参见本申请实施例所提供的系统

本发明实施例还提供一种電子设备,其包括:至少一个处理器以及与所述至少一个处理器通信连接的存储器,其中所述存储器存储有可被所述至少一个处理器執行的指令,所述指令被所述至少一个处理器执行以使所述至少一个处理器能够执行本发明任一实施例的语音识别方法的步骤。

本申请實施例的电子设备以多种形式存在包括但不限于:

(1)移动通信设备:这类设备的特点是具备移动通信功能,并且以提供话音、数据通信为主要目标这类终端包括:智能手机(例如iPhone)、多媒体手机、功能性手机,以及低端手机等

(2)超移动个人计算机设备:这类设备属于个人计算机的范畴,有计算和处理功能一般也具备移动上网特性。这类终端包括:PDA、MID和UMPC设备等例如iPad。

(3)便携式娱乐设备:这类设备可以显示和播放多媒体内容该类设备包括:音频、视频播放器(例如iPod),掌上游戏机电子书,以及智能玩具和便携式车载导航设备

(4)其他具有数据交互功能的电子装置。

以上所描述的装置实施例仅仅是示意性的其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元即可以位于一个地方,或者也可以分布到多个网络单元上可以根据实际的需要选择其中的部分或者铨部模块来实现本实施例方案的目的。

通过以上的实施方式的描述本领域的技术人员可以清楚地了解到各实施方式可借助软件加通用硬件平台的方式来实现,当然也可以通过硬件基于这样的理解,上述技术方案本质上或者说对相关技术做出贡献的部分可以以软件产品的形式体现出来该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等包括若干指令用以使得一台计算机设备(可以是個人计算机,服务器或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。

最后应说明的是:以上实施例仅用以说明本申請的技术方案而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各實施例所记载的技术方案进行修改或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申請各实施例技术方案的精神和范围

}
  •  语音识别的应用领域非常广泛瑺见的应用系统有:语音输入系统,相对于键盘输入方法它更符合人的日常习惯,也更自然、更高效;语音控制系统即用语音来控制設备的运行,相对于手动控制来说更加快捷、方便可以用在诸如工业控制、语音拨号系统、智能家电、声控智能玩具等许多领域;智能對话查询系统,根据客户的语音进行操作为用户提供自然、友好的数据库检索服务,家庭服务、宾馆服务、旅行社服务系统、订票系统、医疗服务、银行服务、股票查询服务等等
    全部
}

我要回帖

更多关于 什么音响音质好 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信