Documentation ¶
Index ¶
Constants ¶
View Source
const ( SubServiceTypeSentence = 2 EngServiceType16k = "16k" )
View Source
const ( SourceTypeUrl = 0 //0:语音 URL SourceTypeData = 1 //1:语音数据(post body) )
View Source
const ( VOICE_FILE_TYPE_RAW = 1 //语音文件类型 1:raw VOICE_FILE_TYPE_WAV = 2 //语音文件类型2:wav VOICE_FILE_TYPE_MP3 = 3 //语音文件类型 3:mp3 )
View Source
const ( VOICE_FILE_FORMAT_PCM = "pcm" VOICE_FILE_FORMAT_WAV = "wav" VOICE_FILE_FORMAT_AMR = "amr" VOICE_FILE_FORMAT_MP3 = "mp3" )
View Source
const ( WORKMODE_STREAM = 0 //0:流式分片 WORKMODE_NON_STREAM = 1 //1:非流式一次性评估 )
View Source
const ( EVALMODE_WORD = 0 //评估模式,0:词模式,,1::句子模式,2:段落模式,3:自由说模式 EVALMODE_SENTENCE = 1 //评估模式,0:词模式,,1::句子模式,2:段落模式,3:自由说模式 EVALMODE_PART = 2 //评估模式,0:词模式,,1::句子模式,2:段落模式,3:自由说模式 EVALMODE_FREE = 3 //评估模式,0:词模式,,1::句子模式,2:段落模式,3:自由说模式 )
View Source
const ( SERVERTYPE_EN = 0 //评估语言,0:英文,1:中文。 SERVERTYPE_CN = 1 //评估语言,0:英文,1:中文。 )
View Source
const (
MethodPost string = "POST"
)
View Source
const SoeAPIVersion = "2018-07-24"
Variables ¶
Functions ¶
This section is empty.
Types ¶
type MXAi ¶
func (*MXAi) OralProcess ¶
func (*MXAi) Sentence ¶
func (mx *MXAi) Sentence(voiceData string, voiceDataLen int64, voiceURL string, sourceType uint64, voiceFormat string, usrAudioKey string) (content string, err error)
一句话识别语音识别 voiceData:语音数据,当SourceType 值为1时必须填写,base64编码 voiceDataLen:SourceType 值为1时必须填写,未进行base64编码时的数据长度 voiceURL:语音URL,当SourceType值为0时必须填写 sourceType:语音数据来源0:语音 URL;1:语音数据 voiceFormat:识别音频的音频格式(支持mp3,wav) usrAudioKey:用户端对此任务的唯一标识,用户自助生成
type OralProcessResult ¶
type OralProcessResult struct { // 发音精准度,取值范围[-1, 100],当取-1时指完全不匹配,当为句子模式时,是所有已识别单词准确度的加权平均值。当为流式模式且请求中IsEnd未置1时,取值无意义 PronAccuracy *float64 `json:"PronAccuracy,omitempty" name:"PronAccuracy"` // 发音流利度,取值范围[0, 1],当为词模式时,取值无意义;当为流式模式且请求中IsEnd未置1时,取值无意义 PronFluency *float64 `json:"PronFluency,omitempty" name:"PronFluency"` // 发音完整度,取值范围[0, 1],当为词模式时,取值无意义;当为流式模式且请求中IsEnd未置1时,取值无意义 PronCompletion *float64 `json:"PronCompletion,omitempty" name:"PronCompletion"` // 详细发音评估结果 Words []*v20180724.WordRsp `json:"Words,omitempty" name:"Words" list` // 语音段唯一标识,一段语音一个SessionId SessionId *string `json:"SessionId,omitempty" name:"SessionId"` // 保存语音音频文件下载地址 AudioUrl *string `json:"AudioUrl,omitempty" name:"AudioUrl"` // 断句中间结果,中间结果是局部最优而非全局最优的结果,所以中间结果有可能和最终整体结果对应部分不一致;中间结果的输出便于客户端UI更新;待用户发音完全结束后,系统会给出一个综合所有句子的整体结果。 SentenceInfoSet []*v20180724.SentenceInfo `json:"SentenceInfoSet,omitempty" name:"SentenceInfoSet" list` // 评估 session 状态,“Evaluating":评估中、"Failed":评估失败、"Finished":评估完成 Status *string `json:"Status,omitempty" name:"Status"` // 唯一请求 ID,每次请求都会返回。定位问题时需要提供该次请求的 RequestId。 RequestId *string `json:"RequestId,omitempty" name:"RequestId"` }
Click to show internal directories.
Click to hide internal directories.