Wav2Lip-GFPGAN

时间:2025-05-08 07:51:52

1.搭建环境

创建一个文件夹wav2lip_GFPgan,打开cmd,使用命令git clone /ajay-sainy/拉取项目到本地,使用命令conda create -n wav2lip_GFPgan python=3.8.1创建虚拟环境,使用命令conda activate wav2lip_GFPgan切换环境,使用命令下载项目所需的包:

pip install ffmpeg
pip install --use-pep517 basicsr
pip install -r 
pip install --upgrade opencv-python # 更新opencv-python版本

2.下载模型

人脸检测模型:python -m wget /downloads/python-fan/
下载后改名成放在Wav2Lip-GFPGAN/Wav2Lip-master/face_detection/detection/sfd
checkpoints模型:链接
下载后放在Wav2Lip-GFPGAN/Wav2Lip-master/checkpoints

3.运行

素材放在Wav2Lip-GFPGAN/inputs里。
切换到Wav2Lip-GFPGAN/Wav2Lip-master,创建一个文件夹outputs做为输出目录,执行命令python --checkpoint_path checkpoints/ --face Wav2Lip-GFPGAN/inputs/kim_7s_raw.mp4 --audio Wav2Lip-GFPGAN/inputs/kim_audio.mp3 --outfile Wav2Lip-GFPGAN\Wav2Lip-master\outputs/result_kim.mp4

相关文章