2026/2/10 8:48:53
网站建设
项目流程
网站产品分类设计,wordpress哪个版本 最快,商丘做网站优化的公司有哪些,公司长沙建站LiveTalking 介绍
LiveTalking 是一个开源的实时交互数字人系统#xff0c;通过多模态AI技术实现语音驱动的虚拟形象生成#xff0c;支持低延迟视频流输出#xff0c;适用于虚拟客服、直播、教育等多种场景。
github地址#xff1a;https://github.com/lipku/LiveTalki…LiveTalking 介绍LiveTalking是一个开源的实时交互数字人系统通过多模态AI技术实现语音驱动的虚拟形象生成支持低延迟视频流输出适用于虚拟客服、直播、教育等多种场景。github地址https://github.com/lipku/LiveTalkinggitee地址https://gitee.com/lipku/LiveTalking技术架构与核心功能系统采用三平面哈希表示进行高效三维空间编码结合区域注意力模块融合语音与眼部动作信号实现精准的唇形同步和表情驱动核心模块包括语音识别ASR支持Whisper、Hubert等模型将语音实时转为文本。大语言模型LLM可接入阿里云Qwen、OpenAI等处理自然语言理解与生成。文本转语音TTS集成GPT-SoVITS、FishSpeech及云服务如腾讯云TTS支持声音克隆和多语种播报。视觉驱动采用MuseTalk、Wav2Lip等模型实现半身动画与背景替换。系统通过WebRTC或RTMP输出视频流端到端延迟低于300ms单GPU可并发支持16个以上会话。本地服务器部署实验部署环境与硬件配置● 操作系统Ubuntu● GPUNVIDIA GeForce RTX 4090 (24GB 显存)● 内存24GBLiveTalking 数字人项目部署与运行指南本文档基于 LiveTalking 项目支持 MuseTalk 模型的实验环境配置流程整理旨在帮助开发者快速搭建实时交互式数字人服务。1. 环境准备1.1 获取源码首先将项目代码克隆至本地环境git clone https://github.com/lipku/LiveTalking.git cd LiveTalking1.2 创建虚拟环境建议使用 Conda 创建独立的 Python 3.10 环境conda create-n livetalk python3.101.3 激活虚拟环境后安装依赖库根据你的 CUDA 版本安装对应的 PyTorch 及项目依赖。注意 本示例基于 CUDA 12.8 环境。组件版本/配置CUDA12.8PyTorch2.8.0Torchvision0.23.0Torchaudio2.8.0执行安装命令conda activate livetalk pip install torch2.8.0torchvision0.23.0torchaudio2.8.0--index-url https://download.pytorch.org/whl/cu128 pip install-r requirements.txt 提示若你的服务器 CUDA 版本不同请移步 PyTorch 官网 获取对应版本的安装命令。2. 模型配置在启动服务前需确保模型权重文件已准备就绪。操作步骤访问 Hugging Face 或项目指定的模型库。下载 MuseTalk 模型所需的核心权重文件如 sd-vae-ft-mse 等。将下载的文件放置于项目根目录下的 models/ 文件夹中。注虽然项目支持自动下载但鉴于网络环境推荐手动下载并放置文件以确保完整性。最终下载的模型文件如下下载模型文件可以使如下bash代码#!/bin/bash# Set the checkpoints directoryCheckpointsDirmodels# Create necessary directoriesmkdir-p models/musetalk models/musetalkV15 models/syncnet models/dwpose models/face-parse-bisent models/sd-vae models/whisper# Install required packagespip install-Uhuggingface_hub[cli]pip install gdown# Set HuggingFace mirror endpointexport HF_ENDPOINThttps://hf-mirror.com# Download MuseTalk V1.0 weightshuggingface-cli download TMElyralab/MuseTalk \--local-dir$CheckpointsDir \--includemusetalk/musetalk.jsonmusetalk/pytorch_model.bin# Download MuseTalk V1.5 weights (unet.pth)huggingface-cli download TMElyralab/MuseTalk \--local-dir$CheckpointsDir \--includemusetalkV15/musetalk.jsonmusetalkV15/unet.pth# Download SD VAE weightshuggingface-cli download stabilityai/sd-vae-ft-mse \--local-dir$CheckpointsDir/sd-vae \--includeconfig.jsondiffusion_pytorch_model.bin# Download Whisper weightshuggingface-cli download openai/whisper-tiny \--local-dir$CheckpointsDir/whisper \--includeconfig.jsonpytorch_model.binpreprocessor_config.json# Download DWPose weightshuggingface-cli download yzd-v/DWPose \--local-dir$CheckpointsDir/dwpose \--includedw-ll_ucoco_384.pth# Download SyncNet weightshuggingface-cli download ByteDance/LatentSync \--local-dir$CheckpointsDir/syncnet \--includelatentsync_syncnet.pt# Download Face Parse Bisent weightsgdown--id154JgKpzCPW82qINcVieuPH3fZ2e0P812-O $CheckpointsDir/face-parse-bisent/79999_iter.pth curl-L https://download.pytorch.org/models/resnet18-5c106cde.pth \-o $CheckpointsDir/face-parse-bisent/resnet18-5c106cde.pth echo✅ All weights have been downloaded successfully!里面有些没必要下载所以我去huggingface上下载对应的权重文件的。3. 服务启动与访问3.1 启动应用配置完成后运行以下命令启动服务python app.py--model musetalk--transport webrtc--avatar_id musetalk_avatar1当出现以下页面时访问网址http://serverip:8010/webrtcapi.html3.2 获取服务地址服务启动后需获取服务器的局域网 IP 地址serveripip a在输出结果中找到 eth0 网卡下的 inet 字段即为你的服务器 IP。3.3 Web 端交互打开浏览器访问以下地址基础演示页面http://:8010/webrtcapi.html点击 Start 按钮加载数字人。在文本框输入内容并提交数字人将实时播报。进阶仪表盘推荐http://:8010/dashboard.html对话模式集成大语言模型支持智能问答交互。朗读模式输入文本进行播报。语音交互支持通过麦克风按钮进行实时语音对话。打开web页面如下点击start会显示数字人在input text中输入要朗读的文本数字人就会进行播报如果要体验更完整功能的Web页面推荐访问链接http://serverip:8010/dashboard.html如上图所示有对话模式和朗读模式对话模式接了大模型可以进行智能问答。下面的语音按钮还支持语音对话。