当前位置: 代码网 > it编程>前端脚本>Python > Python中edge-tts实现便捷语音合成

Python中edge-tts实现便捷语音合成

2025年05月06日 Python 我要评论
edge-tts是一个功能强大的 python 库,利用 microsoft azure 的云端文本到语音(tts)服务,支持多种语言和声音选项,能够生成高质量、自然听感的语音输出。它支持多种音频格式

edge-tts 是一个功能强大的 python 库,利用 microsoft azure 的云端文本到语音(tts)服务,支持多种语言和声音选项,能够生成高质量、自然听感的语音输出。它支持多种音频格式,包括 mp3、wav 和 ogg,适用于在本地或服务器上进行文本转换为语音的应用程序,可以通过简单的 api 调用进行部署和运行,非常适合语音助手、教育应用和音频内容制作等多种场景。

安装与环境设置

首先,确保您已经安装了 edge-tts 库:

pip install edge-tts

安装完成后,您可以开始进行语音合成相关的功能开发。

文本转语音

在这个章节,我们将展示如何实现一个基础功能:传入文本并生成语音,保存为音频文件。该功能使用固定的语音并将语音保存为 .mp3 文件。执行后会生成 weather.mp3 音频文件,包含了合成的中文语音。

import asyncio
import edge_tts

def generate_audio(text: str, voice: str, output_file: str) -> none:
    """
    传入文本、语音及输出文件名,生成语音并保存为音频文件
    :param text: 需要合成的中文文本
    :param voice: 使用的语音类型,如 'zh-cn-xiaoyineural'
    :param output_file: 输出的音频文件名
    """
    async def generate_audio_async() -> none:
        """异步生成语音"""
        communicate = edge_tts.communicate(text, voice)
        await communicate.save(output_file)

    # 异步执行生成音频
    asyncio.run(generate_audio_async())

# 示例调用
generate_audio("今天天气不错,适合出门玩耍。", "zh-cn-xiaoyineural", "weather.mp3")
  • generate_audio():这是主函数,接收文本、语音和输出文件名作为参数。
  • 异步函数 generate_audio_async() 实现语音合成。
  • asyncio.run() 用于运行异步代码。

查找音色

在此章节中,我们将展示如何查找符合特定条件的语音,并将符合条件的语音列表打印给用户,而不进行进一步的操作。此方法仅列出符合条件的语音,并打印出每个语音的名称、性别和语言。

import asyncio
import edge_tts
from edge_tts import voicesmanager

async def print_available_voices(language: str = "zh", gender: str = none) -> none:
    """
    异步查找并打印符合特定条件的语音列表。
    :param language: 语音的语言,如 "zh-cn" 表示中文
    :param gender: 可选参数,选择语音的性别("male" 或 "female"),默认不指定
    """
    # 异步获取所有可用语音
    voices = await voicesmanager.create()

    # 根据语言过滤语音
    filtered_voices = voices.find(language=language)
    if gender:
        filtered_voices = [voice for voice in filtered_voices if voice["gender"] == gender]
    
    # 打印符合条件的语音
    if filtered_voices:
        print(f"符合条件的语音:")
        for voice in filtered_voices:
            print(f"语音名称: {voice['name']}, 性别: {voice['gender']}, 语言: {voice['language']}")
    else:
        print(f"没有找到符合条件的语音:语言={language}, 性别={gender}")

# 示例调用
async def main():
    await print_available_voices(language="zh", gender="female")

# 运行异步示例
if __name__ == "__main__":
    asyncio.run(main())
  • print_available_voices():此函数是异步的,通过 await 来调用 voicesmanager.create(),并获取语音列表。然后通过 voices.find() 根据语言和性别筛选语音。

更改语音参数

除了选择不同的音色外,edge-tts 还允许用户在合成时对语音的音量、语速、音调等参数进行调整。通过 communicate 类中的 ratepitch 和 volume 参数,可以动态控制生成的语音效果。

import edge_tts

def generate_audio_with_custom_params(text: str, output_file: str, rate: str = "+0%", pitch: str = "+0hz", volume: str = "+0%") -> none:
    """
    生成带有自定义语音参数的音频
    :param text: 需要合成的中文文本
    :param output_file: 输出的音频文件名
    :param rate: 语速调整(默认为 "+0%",表示标准语速)
    :param pitch: 音调调整(默认为 "+0hz",表示标准音调)
    :param volume: 音量调整(默认为 "+0%",表示标准音量)
    """
    # 选择中文语音,这里使用的是小艺的 neural 语音
    voice = "zh-cn-xiaoyineural"  
    
    # 使用 edge_tts.communicate 创建语音对象,并传入自定义参数
    communicate = edge_tts.communicate(text, voice, rate=rate, pitch=pitch, volume=volume)
    
    # 保存生成的音频文件
    communicate.save_sync(output_file)
    print(f"音频已生成,语速: {rate},音调: {pitch},音量: {volume}。")

# 示例调用
generate_audio_with_custom_params(
    "欢迎体验自定义语音合成!", 
    "custom_param_audio.wav", 
    rate="+50%", 
    pitch="+10hz", 
    volume="-20%"
)
  • rate(语速):控制语速的调整。默认值为 "+0%",表示标准语速。
  • pitch(音调):控制音调的调整,单位是 hz。默认值为 "+0hz",表示标准音调。
  • volume(音量):控制音量的调整,单位是百分比。默认值为 "+0%",表示标准音量。

生成音频与字幕

在某些应用场景中,您可能需要同时生成音频和字幕,并根据需要选择同步或异步方式进行处理。这个章节展示了如何通过 edge-tts 实现同步和异步生成音频和字幕文件。执行后,会生成音频文件和对应的字幕文件。

import asyncio
import edge_tts

def process_audio_and_subtitles_sync(text: str, voice: str, output_file: str, srt_file: str) -> none:
    """
    同步生成音频并实时生成字幕
    :param text: 需要合成的中文文本
    :param voice: 使用的语音类型
    :param output_file: 输出的音频文件名
    :param srt_file: 输出的字幕文件名
    """
    communicate = edge_tts.communicate(text, voice)
    submaker = edge_tts.submaker()

    # 同步生成音频并实时生成字幕
    with open(output_file, "wb") as audio_file:
        for chunk in communicate.stream_sync():
            if chunk["type"] == "audio":
                audio_file.write(chunk["data"])  # 写入音频数据
            elif chunk["type"] == "wordboundary":
                submaker.feed(chunk)  # 处理字幕

    # 保存字幕文件
    with open(srt_file, "w", encoding="utf-8") as subtitle_file:
        subtitle_file.write(submaker.get_srt())

async def process_audio_and_subtitles_async(text: str, voice: str, output_file: str, srt_file: str) -> none:
    """
    异步生成音频并实时生成字幕
    :param text: 需要合成的中文文本
    :param voice: 使用的语音类型
    :param output_file: 输出的音频文件名
    :param srt_file: 输出的字幕文件名
    """
    # 异步调用同步版本的逻辑
    loop = asyncio.get_event_loop()
    await loop.run_in_executor(none, process_audio_and_subtitles_sync, text, voice, output_file, srt_file)

# 示例调用
process_audio_and_subtitles_sync("欢迎使用 python 进行语音合成!", "zh-cn-xiaoyineural", "audio_sync.mp3", "audio_sync.srt")

# 异步调用
asyncio.run(process_audio_and_subtitles_async("这是一段测试语音和字幕生成的示例。", "zh-cn-xiaoyineural", "audio_async.mp3", "audio_async.srt"))
  • process_audio_and_subtitles_sync:同步生成音频数据并实时生成字幕(srt格式)。
  • 使用 communicate.stream_sync() 获取音频数据流并处理每个“音频”和“词语边界”。
  • process_audio_and_subtitles_async:通过 asyncio.run_in_executor 异步调用同步版本的 process_audio_and_subtitles_sync,确保异步函数可以高效地运行。

总结

通过本教程,您学习了如何使用 edge-tts 库实现文本到语音的转换。您通过不同的函数实现了以下功能:

  • 基础文本转语音
  • 动态选择语音生成语音
  • 生成音频流和字幕

 到此这篇关于python中edge-tts实现便捷语音合成的文章就介绍到这了,更多相关python edge-tts语音合成内容请搜索代码网以前的文章或继续浏览下面的相关文章希望大家以后多多支持代码网!

(0)

相关文章:

版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。

发表评论

验证码:
Copyright © 2017-2025  代码网 保留所有权利. 粤ICP备2024248653号
站长QQ:2386932994 | 联系邮箱:2386932994@qq.com