中文语音识别技术在c#中的应用(二)

中文

接上篇《中文语音识别技术在c#中的应用(一)》………但是,这个方法本身并不知道你给的字符串是什么语言,所以需要我们它这个字符串用什么语言读出。SpVoiceClass 类的Voice 属性就是用来设置语种的,我们可以通过SpVoiceClass 的GetVoices方法得到所有的语种列表,然后在根据参数选择相应的语种,比如设置语种为汉语如下所示:

private void SetChinaVoice()
{
voice.Voice = voice.GetVoices(string.Empty,string.Empty).Item(0) ;
}

0表示是汉用,1234都表示英语,就是口音不同。

这样,我们就设置了语种,如果结合发音方法,我们就可以设计出一个只发汉语语音的方法。

private void SpeakChina(string strSpeak)
{
SetChinaVoice() ;
Speak(strSpeak) ;
}

只发英语语音的方法也是类似的,上面程序里有。

对于一段中英文混合的语言,我们让程序读出混合语音的方法就是:编程把这段语言的中英文分开,对于中文调用SpeakChina方法,英文调用SpeakEnglishi方法;至于怎样判断一个字符是英文还是中文,我采用的是判断asc码的方法,具体的类方法是通过AnalyseSpeak实现的。

这样,对于一段中英文混合文字,我们只需把它作为参数传递给AnalyseSpeak就可以了,他能够完成中英文的混合发音。

当然,对于发音的暂定、继续、停止等操作,上面也给出了简单的方法调用,很容易明白。

下面简单介绍一下中文语音识别的方法:

先把该语音识别的类源代码贴在下面,然后再做说明:

public class SpRecognition
{
private static SpRecognition _Instance = null ;
private SpeechLib.ISpeechRecoGrammar isrg ;
private SpeechLib.SpSharedRecoContextClass ssrContex =null;
private System.Windows.Forms.Control cDisplay ;
private SpRecognition()
{
ssrContex = new SpSharedRecoContextClass() ;
isrg = ssrContex.CreateGrammar(1) ;
SpeechLib._ISpeechRecoContextEvents_RecognitionEventHandler recHandle =
new _ISpeechRecoContextEvents_RecognitionEventHandler(ContexRecognition) ;
ssrContex.Recognition += recHandle ;
}
public void BeginRec(Control tbResult)

{
isrg.DictationSetState(SpeechRuleState.SGDSActive) ;
cDisplay = tbResult ;
}
public static SpRecognition instance()
{
if (_Instance == null)
_Instance = new SpRecognition() ;
return _Instance ;
}
public void CloseRec()
{
isrg.DictationSetState(SpeechRuleState.SGDSInactive) ;
}
private void ContexRecognition(int iIndex,object obj,SpeechLib.SpeechRecognitionType type,SpeechLib.ISpeechRecoResult result)

{
cDisplay.Text += result.PhraseInfo.GetText(0,-1,true) ;
}

}

我们定义了ssrContex 和isrg为语音识别的上下文和语法,通过设置isrg的DictationSetState方法,我们可以开始或结束识别,在上面的程序中是BeginRec和CloseRec方法。cDisplay 是我们用来输出识别结果的地方,为了能够在大部分控件上都可以显示结果,我用了一个Control 类来定义它。当然,每次语音识别后都会触发ISpeechRecoContextEvents_RecognitionEventHandler 事件,我们定义了一个这样的方法ContexRecognition来响应事件,并且在这个方法里输出识别结果。

这样,中文语音处理的一些最基本的问题就有了一个简单的解决方法,当然,这种方法还有很多不完善的地方,希望大家多提出批评意见,共同提高。

时间: 2025-01-31 09:48:57

中文语音识别技术在c#中的应用(二)的相关文章

中英文语音合成与中文语音识别技术在c#中的应用(二)

中文 但是,这个方法本身并不知道你给的字符串是什么语言,所以需要我们它这个字符串用什么语言读出.SpVoiceClass 类的Voice 属性就是用来设置语种的,我们可以通过SpVoiceClass 的GetVoices方法得到所有的语种列表,然后在根据参数选择相应的语种,比如设置语种为汉语如下所示: private void SetChinaVoice() { voice.Voice = voice.GetVoices(string.Empty,string.Empty).Item(0) ;

中英文语音合成与中文语音识别技术在c#中的应用(一)

中文 在.net中,对英文语音有较好的支持,但是对中文语音的支持还没有加入进来,我们要想实现中文发音或中文语音识别,必需先安装微软的Speech Application SDK(SASDK),它的最新版本是 SAPI 5.1 他能够识别中.日.英三种语言,你可以在这里下载:http://www.microsoft.com/speech/download/sdk51/,需要安装这两个文件Speech SDK 5.1和5.1 Language Pack,其中5.1 Language Pack可以选择

ASP技术在论坛中的运用(二)

对于论坛或者留言板,实现起来有一般两种方法:用文件或者数据库.相对而言,用数据库要简单高效一些,能够对论坛进行更好的控制,也能够对数据提供一些验证和保护. 这儿使用的是ACCESS数据库,对于一般的中小型的应用,ACCESS应该是能够胜任的. 从上面的分析可以知道应该有四个表,下面我给出每个表的结构. 作者表(存放作者信息): ID:文本类型,必填.是网友代号. 密码:文本类型,必填. 昵称:文本类型,必填. EMAIL:文本类型,必填. 职务:数字类型,必填.-1代表普通网友,0代表站长.大于

语音识别助力客服小二:集团语音识别技术在留声机、服务宝项目中的应用

"正在为您转接客服小二.为了提高我们的服务质量,您的通话可能会被录音."我们是这么说的,也是这么做的.每天,集团和蚂蚁的客服小二总共会接听几十万通电话,沉淀的语音数据时长超过数万小时.来自天南海北的客户将需要咨询的问题.需要吐槽的痛点.需要投诉的纠纷通过客服电话源源不断的反馈回公司.这些宝贵的客户心声在阿里会被认真的记录下来,并成为改善我们产品和服务的动力. 那么问题来了:如此大规模的语音数据沉淀下来后,如何才能被挖掘利用?阿里如此大规模的自营和外包客服小二团队,如何才能监测并不断提高

语音合成与识别技术在C#中的应用

在.net中,对英文语音有较好的支持,但是对中文语音的支持还没有加入进来,我们要想实现中文发音或中文语音识别,必需先安装微软的Speech Application SDK(SASDK),它的最新版本是 SAPI 5.1 他能够识别中.日.英三种语言,你可以在这里下载:http://www.microsoft.com/speech/download/sdk51/,需要安装这两个文件Speech SDK 5.1和5.1 Language Pack,其中5.1 Language Pack可以选择安装支

人机大战机器胜!这次是智能语音识别技术!

昨天,在阿里云的一场年会上,真枪实弹的上演了一场人机大战.一张大屏分两边,一边实时滚动的是出自阿里著名的快男姜毅的文字速记,一边出现的是阿里云iDST的科学家们在短短一年时间打造出来的语音识别系统支持下的语音转文本记录. 人机大战一触即发,随着阿里云总裁胡晓明的演讲展开,屏幕两端实时出现了各自的文本记录,从现场效果来看,难分伯仲.如果不是提前告知,观者很难感知到擂台的一端是机器人,因为可以实时的看到机器人除了记录之外,还能根据演讲人语境的变化,返回来对前面的记录进行调整. 结果评估取孙权前八分钟

机器换人!浙江高院庭审引入语音识别技术!

人工智能被认为是全球科技大发展的下一幕.从围棋人机大战,到预测<我是歌手>冠军,再到挑战高考作文.人工智能正在加速闯入大众生活的方方面面,这也包括司法领域.(深入了解语音识别技术,可详阅:https://yq.aliyun.com/topic/24) "现在开庭."6月7日上午,随着一声清脆的法槌声,被告人宣某危险驾驶案在浙江省杭州市西湖区人民法院开庭审理.法官话音未落,显示屏上就同步出现汉字:"审判长:现在开庭"--十分钟不到,庭审结束,显示屏上记录着

中国人工智能学会通讯——面向知识图谱的自适应中文分词技术

引言 知识图谱用于描述真实世界中存在的各 种实体和概念,知识图谱技术提供了一种从 海量文本和图像中抽取结构化知识的手段[1]. 知识图谱的构建可分为信息抽取.知识融合 和知识计算三部分,其中信息抽取是知识图 谱构建的基础,主要面向各种非结构化数据. 半结构化数据和自由文本数据.这里,自由 文本数据作为一种非结构化数据,是构建知 识图谱的主要数据来源.因此,从中文自由 文本中获取知识需要利用自然语言处理技术 进行信息抽取,诸如实体识别.关系抽取等. 在实体识别过程中,中文分词系统的性能对 实体识别

揭秘:美国国安局(NSA)的语音识别技术

斯诺登泄密各种美国国安局(NSA)的"黑科技"之后,米国人民似乎意识到了无论什么样的通信方式都逃不过来自政府的监控,NSA甚至早在40年前就可以识别语音了. 语音识别技术可追溯到20世纪70年代 要想更好的理解这是怎么一回事,就要追溯到20世纪70年代:当时美国国防高级研究计划局(DARPA)首次出资研究语音识别技术,在此阶段有好几个项目都可以将语音转换成文本格式.尽管当时的进程很缓慢,但是,通过技术的不断提升,识别的进程变得越来越快,获得的数据也越来越多. DARPA信息创新办公室主