欢迎光临
我们一直在努力

最新开源tts,支持时时对话,延迟低于25ms,多规则适配多场景

概述

Orpheus TTS是建立在Llama-3B主链上的开源文本到语音系统。 Orpheus展示了使用LLM进行语音合成的新兴功能。它以其接近人类的自然情感表达、超低延迟的实时输出以及强大的零样本语音克隆能力,还将延迟压缩到令人惊叹的 25-50 毫秒,完美适配实时对话场景。并且提供了从 150M 到 3B 参数的四种型号,满足不同场景的需求。支持零样本语音克隆和灵活的情感控制,可让每个人都能轻松定制专属音色。

能力

  • 类似人类的语音:自然语调,情感和节奏,优于SOTA封闭源模型
  • 零拍的语音克隆:克隆声音而无需以前的微调
  • 引导的情感和语调:带有简单标签的控制语音和情感特征
  • 低延迟:〜200ms的实时应用程序流延迟,可降低至〜100ms,并使用输入流。

流推理示例

克隆这个仓库

git clone https://github.com/canopyai/Orpheus-TTS.git

导航和安装软件包

cd Orpheus-TTS && pip install orpheus-speech # uses vllm under the hood for fast inference
pip install vllm==0.7.3

VLLM在3月18日推出了一个版本,因此通过恢复到后来 解决了一些错误

pip install orpheus-speech

在下面运行以下示例:

from orpheus_tts import OrpheusModelimport waveimport time
model = OrpheusModel(model_name ="canopylabs/orpheus-tts-0.1-finetune-prod")prompt = '''Man, the way social media has, um, completely changed how we interact is just wild, right? Like, we're all connected 24/7 but somehow people feel more alone than ever. And don't even get me started on how it's messing with kids' self-esteem and mental health and whatnot.'''
start_time = time.monotonic()syn_tokens = model.generate_speech(   prompt=prompt,   voice="tara",   )
with wave.open("output.wav""wb"as wf:   wf.setnchannels(1)   wf.setsampwidth(2)   wf.setframerate(24000)
   total_frames = 0   chunk_counter = 0   for audio_chunk in syn_tokens: # output streaming      chunk_counter += 1      frame_count = len(audio_chunk) // (wf.getsampwidth() * wf.getnchannels())      total_frames += frame_count      wf.writeframes(audio_chunk)   duration = total_frames / wf.getframerate()
   end_time = time.monotonic()   print(f"It took {end_time - start_time} seconds to generate {duration:.2f} seconds of audio")
测试效果
1、在线Demo:

https://huggingface.co/spaces/MohamedRashad/Orpheus-TTS

640-11
想构造时时语音助手、有声读物,配音的可以搞起来了,哈哈
赞(0)
未经允许不得转载:WP之家 » 最新开源tts,支持时时对话,延迟低于25ms,多规则适配多场景

登录

找回密码

注册