1.搭建环境
创建一个文件夹wav2lip_GFPgan,打开cmd,使用命令git clone /ajay-sainy/
拉取项目到本地,使用命令conda create -n wav2lip_GFPgan python=3.8.1
创建虚拟环境,使用命令conda activate wav2lip_GFPgan
切换环境,使用命令下载项目所需的包:
pip install ffmpeg
pip install --use-pep517 basicsr
pip install -r
pip install --upgrade opencv-python # 更新opencv-python版本
2.下载模型
人脸检测模型:python -m wget /downloads/python-fan/
下载后改名成放在
Wav2Lip-GFPGAN/Wav2Lip-master/face_detection/detection/sfd
checkpoints模型:链接
下载后放在Wav2Lip-GFPGAN/Wav2Lip-master/checkpoints
3.运行
素材放在Wav2Lip-GFPGAN/inputs
里。
切换到Wav2Lip-GFPGAN/Wav2Lip-master
,创建一个文件夹outputs做为输出目录,执行命令python --checkpoint_path checkpoints/ --face Wav2Lip-GFPGAN/inputs/kim_7s_raw.mp4 --audio Wav2Lip-GFPGAN/inputs/kim_audio.mp3 --outfile Wav2Lip-GFPGAN\Wav2Lip-master\outputs/result_kim.mp4