Deep-Live-Cam:仅需一张图片,实现实时人脸替换与视频换脸

Deep-Live-Cam 是一款开源的实时人脸替换工具,仅需一张源人脸图片,即可实现直播、视频通话中的实时换脸,支持 CUDA/CoreML/DirectML/OpenVINO 多种 GPU 加速方案。

GitHub Trending 今日第一 · 2026-03-29 · ⭐ 今日新增 1,814 stars

项目简介

Deep-Live-Cam 是由 hacksider 开源的实时人脸替换与视频深度伪造工具(当前版本 v2.7 beta)。其最大亮点在于:仅需一张图片,即可在直播、视频通话或本地视频中实时替换人脸,操作简单到只需三步完成。

该项目已被 Ars Technica、Yahoo!、CNN 巴西、Bloomberg 等多家国际媒体报道,在 GitHub 上引发广泛关注。


核心功能

  • 实时人脸替换:在网络摄像头流、直播或视频通话中实时替换目标人脸
  • 单图驱动:只需提供一张源人脸图片,无需视频或大量样本
  • 嘴部蒙版:保留原始嘴部动作,提升换脸准确性和自然感
  • 多人脸映射:支持同时为画面中多个目标人物应用不同的人脸
  • 电影/直播换脸:实时在影视内容或直播节目中替换面孔
  • 表情包制作:快速生成创意内容

安装方法

快速入门(推荐普通用户)

官方提供预构建版本,支持 Windows / Mac Silicon / CPU,包含 30+ 额外功能及优先技术支持:

1
https://deeplivecam.net/index.php/quickstart

手动安装(技术用户)

环境要求:

  • Python 3.11(推荐)
  • pip、git、ffmpeg
  • Visual Studio 2022 运行库(Windows)

安装步骤:

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
# 1. 克隆仓库
git clone https://github.com/hacksider/Deep-Live-Cam.git
cd Deep-Live-Cam

# 2. 下载模型文件到 models/ 目录
#    - GFPGANv1.4.onnx
#    - inswapper_128_fp16.onnx

# 3. 创建虚拟环境并安装依赖
python -m venv venv
source venv/bin/activate  # Windows: venv\Scripts\activate
pip install -r requirements.txt

GPU 加速支持:

平台 加速方案 说明
Nvidia CUDA 需要 CUDA Toolkit 12.8.0 + cuDNN v8.9.7
Apple Silicon CoreML 针对 M1/M2/M3 芯片优化
AMD (Windows) DirectML Windows 原生 GPU 支持
Intel OpenVINO Intel 硬件加速
通用 CPU 无 GPU 亦可运行,性能较低

使用方法

三步完成实时换脸

  1. 选择源人脸图片(你想要替换成的人脸)
  2. 选择要使用的摄像头
  3. 点击 “Live” 开始实时换脸

两种工作模式

  • 图片/视频模式:处理本地静态图片或视频文件,批量换脸
  • 网络摄像头模式:实时视频流处理,适合直播和视频会议

技术栈

组件 技术
深度学习推理 ONNX Runtime
人脸识别 InsightFace
视频处理 FFmpeg
图像增强 GFPGAN、BasicSR
语言 Python 3.11

重要声明

⚠️ 使用须知:本工具面向 AI 生成媒体行业的合法创作用途。使用时须遵守以下原则:

  • 使用真实人物面孔前必须获得当事人明确同意
  • 内置内容检查机制,防止处理不适当内容
  • 用户须自行承担因使用本工具产生的一切法律责任
  • 请严格遵守所在地区的法律法规,尊重他人隐私与肖像权

项目链接