-
Python语音识别KeyError BufferedReader
我正在使用Python中的语音识别包对某些音频文件进行转码,并且在记录文件时遇到KeyError(io.BufferedReader -
识别自定义语音关键字(Unity,MRTK,Hololens 1)
我正在尝试让hololens(1)识别自定义的语音关键字。使用Unity和MRTK。它可以识别预定义的关键字(例如 -
SpeechSynthesizer如何使声音更人性化
我有一个表单应用程序,在其中我可以使用系统语音来读取单词。但是,这听起来像是机器人,如何使 -
如何在使用sr.Microphone时修复AttributeError:__enter__
我编写了以下代码,以便从麦克风获取输入: <pre><code> import speech_recognition as sr import pyaudio #import play -
C#语音识别不会回答我
我编写了这个简单的代码,但似乎无法识别我的声音。我尝试了一切,从使用另一个输入(麦克风)到 -
如何将识别结果保存到文件中?
我不是程序员。但是需要识别文本中的音频文件。我使用Gcloud控制台识别了音频文件。但是,当我尝试 -
节日版本2.5上未运行HTS语音
我已经从节日资料库中下载了hts声音,并且每次显示时 <strong> rateconv:无法从16000转换为0 </strong> 包 -
言语识别
我正在开发一种用于识别语音语言(一种语言,另一种语言,即2种语言)的应用程序。作为标志,我使 -
Azure认知服务-语音示例代码因身份验证错误而失败
程序返回:CANCELED:Reason = Error ErrorDetails = WebSocket升级失败,出现身份验证错误(401)。请检查正确的订 -
成人和儿童(10-16岁之间)是否有任何共同的声学特征
为了使用来自两个组(成人和儿童)的数据集。两组之间是否有任何共同的声学特征 -
谁能在Kaldi自动语音识别工具中帮助我?
我需要开始在Linux上构建一个简单的ASR系统,所以我要使用终端编写代码行,或者如何开始? -
您如何使Speech Studio使用其他资源,即S0而不是F0
我已经在F0层上创建了一个认知资源,并使用了Speech Studio创建了模型。我对此有疑问(请参阅其他问题 -
如何在语音识别中生成时间戳?
我正在研究语音识别系统项目。我已经使用深度神经网络来进行语音识别。但是我还需要给定语音中出 -
自定义语音TTS示例返回“ HTTP / 1.1 503综合失败。状态代码:不可用,详细信息:连接失败”
当尝试运行“自定义语音”端点页面上提供的示例时,我遇到了两个问题。 <ol> <li> 按提供的顺序 -
为什么我的音调对象的声音与PRAAT中的原始音频文件不同?
因此,当我从原始的单声道立体声音频文件中提取可见音高轮廓时,就会从该文件中创建一个新的音高 -
语音门户不显示日志列表
我创建了一个自定义语音模型并进行了部署。当我选择端点时,我可以在页面底部导出日志。已为此端 -
Dialogflow将语音响应设置为默认自动响应
我正在尝试将回答dialogflow提出的问题的响应设置为自动聊天/默认设置为语音,这是网络聊天中的默认设 -
在计算机中显示为.wav文件时,音频文件无法读取为PCM WAV
我正在尝试使用以下代码从语音生成文本: <pre><code>def genText(path, dataholder = {}): for filename in os.lis -
Web Audio Api与Web Speech Api集成-流说话者/声卡输出到语音识别api
<strong>问题:</strong> 理想情况下,我将从声卡中获取流输出(由正在播放的mp4文件生成),并将 -
语音识别的不同模型
我花了很多时间来运行示例项目<a href="https://github.com/tensorflow/examples/tree/master/lite/examples/speech_commands/ml" r -
SpeechRecognizer直接给出onError 5,然后给出7。无需等待几秒钟的输入
我有以下代码来启动SpeechRecognizer: <pre><code> fun startVoiceRecognitionActivityNoUI(value: VOICE_COMMANDS) { Log.i -
Azure认知服务语音SDK-具有自动语言识别功能的语音翻译
在Ignite上,针对Azure认知服务语音SDK宣布了具有自动语言识别功能的语音翻译。 我在哪里可以学 -
如何在python中使文本2语音更具动态/时间响应?
当前我正在使用gtts。这里的系统基本上是,从任何文本创建音频文件,然后保存音频文件,然后运行它 -
speechsdk AudioConfig Stream参数:如何在Python中将字节数组转换为AudioInputStream
我正在使用下面的代码将语音从天青的认知服务转换为文本。 我将从API获得音频文件(使用file.read() -
Swift Speech框架转录数组始终仅包含一个转录
我正在使用语音框架在问答游戏中记录用户响应。我们展示了动物的图像,用户必须说出动物的名字。 -
更改wav文件的长度
我有多个WAV文件,持续时间为2.2-2.8秒。 我想修改(拉伸/挤压)它们,以便所有它们的精确持续时间为2. -
Python中的语音翻译器
我使用此代码<a href="https://github.com/Alekh-sinha/google_translator/blob/master/text_to_speech_3.py" rel="nofollow noreferrer">ht -
如何使用IBM Cloud Speech to Text API请求多个频道
我想在IBM Cloud上使用语音转文本将wav文件转换为文本。 如何发送请求以获取两个渠道的结果? 我是否使 -
自定义键盘语音转IOS / Swift中的文本问题
我正在尝试使用<strong> Speech Framework </strong>构建具有语音转文本功能的自定义键盘,但是我遇到了<strong> -
更改以模式开头的单词
我正在分析政治言论,并希望标准化一些方言词。我想更改所有以“ fra”开头的单词,以使它们以“ fre