-
为什么来自Azure的语音转文本这么慢?
我正在使用Azure Speech To Text API识别从10秒到1分钟的小口语录音。 每次语音识别大约需要5秒钟才能完成, -
若要将Azure LUIS与语音配合使用,我需要首先获取文本吗?
我认为标题解释了我的疑问。 我已经尝试过Azure的“语音转换为文本”功能。 问题是: 有没有办 -
Azure Luis服务:由于服务不活动,因此超出了客户端缓冲区的大小。重置缓冲区
我的问题在这里描述:<a href="https://github.com/Azure-Samples/cognitive-services-speech-sdk/issues/453" rel="nofollow noreferre -
我想在天蓝色语音服务中添加单词级时间戳以进行连续识别
<pre><code>def speech_recognize_continuous_from_file(): speech_config = speechsdk.SpeechConfig(subscription=speech_key, region=service_r -
语音结尾处的语音识别添加的句号与动作不匹配
我已经开发了一个虚拟助手,并且正在使用WebChat与认知语音服务进行测试。 我有个问题:机器人发出的 -
到文本休息api python的天蓝色语音连接中断。 OSError 10054,WSAECONNRESET
我正在尝试测试天蓝色的语音以发送其余API的文本。首先,我使用了POSTMAN客户端,并且运行良好。 <a hre -
Azure语音:免费计划的使用情况报告(F0)
我已经使用F0计划(免费套餐)在Azure上部署了语音资源(认知服务)。免费套餐每月最多可使用5个小时 -
树莓派上的Azure Speech SDK
是否存在使用Linux或Windows IoT在树莓派(ARM或ARM64)上将语音SDK与C#一起使用的方法? 最好是.NET Core。 -
Microsoft Speech API不会超越ConnectingToServiceEvent
我遇到了与此代码有关的问题- <a href="https://stackoverflow.com/questions/48124648/get-working-microsoft-speech-api- -
部署在本地服务结构上的dotnet核心应用程序引发Microsoft语音服务异常
我有一个dotnet core 2.2应用程序,使用了Microsoft认知语音服务版本1.8.0。该应用程序部署在单节点本地服务 -
Ubuntu MATE ARM32上的Azure Speech SDK意图识别错误
我正在尝试在Ubuntu MATE ARM32(在Raspberry Pi上)上使用Speech SDK进行基本的意图识别。 <a href="https://docs.micros -
Azure语音识别未检测到麦克风SPXERR_MIC_NOT_FOUND
我有一个小的示例应用程序来测试语音识别。它可以在某些机器上工作,但不能在其他机器上工作。在 -
Azure语音转文本结果未定义的Node.js
我正在尝试使用userMedia对文本进行语音转换。我在成功创建的Node.js服务器文件上的文件中写入流,但是 -
Azure语音服务-“嘿”在STT中不断得到认可
我正在使用Microsoft语音服务进行语音文本(STT)转换,即可以识别来自麦克风的语音。我能够将识别出 -
Microsoft Azure语音到文本Java问题:使用代理时出现ConnectionFailure
我正在尝试通过以下网址获得Microsoft Azure <strong>语音转换为文本</strong> Java快速入门: <a href="https://docs.m -
试图通过kudu控制台在python azure函数中添加模块(speech_py_impl),但面临虚拟环境的问题
下面是我尝试从function(voicetotext)文件夹创建虚拟环境时的错误, <pre><code>root@a8686ca40:/home/site/wwwroot -
我们如何使用python将存储容器中的输入文件提供给Azure语音api
下面是代码, <pre><code>call_name1="test.wav" blob_client1=blob_service_client.get_blob_client("bucket/audio",c -
Azure语音到文本:自定义语音模型-相关文本“继续”
我们正在运行一个使用Azure的Cognitive Services /语音到文本的自定义语音模型,并且我遇到了一个问题,在 -
从AudioSource数据Unity C#到Text Azure的语音
我想使用语音转文本Azure服务来翻译AudioSource对象的音频(剪辑)。怎么做? -
不需要在识别的文本中插入
是否可以在自定义语音工作室的自定义语音项目中删除结果中的插入内容? 我的音频是葡萄牙语, -
Azure语音SDK | Python |实施关键字识别
我正在尝试使用Azure认知服务和Python创建自定义唤醒词。我正在关注快速入门教程- <a href="https://doc -
无法从AWS Lightsail实例上托管的python代码发送API请求
我有一个托管在AWS Lightsail上的django网站。我正在尝试在其中添加“语音转文本”工具。为此,我尝试了 -
Azure语音到文本,文本未使用c#
我正在尝试使用桌面语音到文本认知服务在桌面应用程序中从音频输入文件中实现文本的蓝色语音,但 -
使用适用于Javascript的Azure认知语音服务sdk的自定义关键字连续识别选项
使用Microsoft Cognitive Speech Services提供的自定义关键字识别器,我想使用microsoft-cognitiveservices-speech-sdk npm软 -
Azure语音SDK:JavaScript中GetUserMedia的createPushStream
我正在尝试查找有关如何通过Azure Speech SDK将getUserMedia流对象用于createPushStream的示例。请注意,我打算在 -
Azure语音javascript SDK:以mp3输出音频
我使用sdk.connection方法捕获语音到文本识别器的音频。它会创建要转换为MP3的PCM音频。 这是初始化 -
如何从python调用Speech Studio自定义命令模型
我已经在Speech.microsoft.com的语音工作室中训练了一个模型,以使用自定义命令。我创建了一个在azure中托 -
文本到语音 - 没有在 .wav 中获取音频(连接被拒绝)
我运行一个 Flask 服务器,每当页面上发生特定操作时都会调用该函数: <pre class="lang-py prettyprint-overri -
无法上传语音数据集,因为“失败”
所以我正在尝试将数据集上传到用于自定义模型的 Microsoft 认知服务语音门户。 我已经这样做了大 -
尝试使用 Azure 语音识别和 Flutter 时出现错误 400
我接到了在 Flutter 应用程序上使用 Azure 语音识别 API 的任务。该应用程序应该记录用户的声音并将其发