Fastgpt接入Whisper本地模型实现语音识别输入
2024年07月31日
•
开源
•
我要评论
FastGPT 默认使用了 OpenAI 的 LLM 模型和语音识别模型,如果想要私有化部署的话,可以使用openai 开源模型Whisper。参考文章开源项目地址 :兼容openai接口api服务。
前言
fastgpt 默认使用了 openai 的 llm 模型和语音识别模型,如果想要私有化部署的话,可以使用openai 开源模型whisper。参考文章 《openai 开源模型whisper语音转文本模型下载使用》
fastgpt接入本地ai语音tts
首先打开one-api网址添加一个自定义渠道

设置base url、模型、鉴权等信息

- base url为你部署本地语音识别web项目baseurl,图标上的是以我写的开源项目whisper-api为例
- 名称可以随意填写
- 模型名要和open ai的保持一致使用
whisper-1
- 密匙即本地语音识别项目的安全凭证,如果使用我的whisper-api项目的默认密匙为
sk-tarzan
- 点击
- 如果配置后不生效,重启下one-api项目
相关文章:
-
-
使用FastAPI提高AI应用程序的开发效率和用户体验,为 AI 模型的部署和交互提供全方位的支持。…
-
使用FastAPI提高AI应用程序的开发效率和用户体验,为 AI 模型的部署和交互提供全方位的支持。…
-
-
-
基于OpenMV与STM32的数据传输项目,手把手教学级别。包含:OpenMV发送端与STM32接收端的代码,STM32代码为HAL库版本,代码开源!…
版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。
发表评论