开源一套视频处理工具链

25 天前
 Lychee0

基本概念

前段时间,影视剧风被下架的视频,讨论了国内流媒体平台画质和码率过度压缩的问题,在站内也有不少讨论。

事实上作为 pter,我们可以很轻松获取到原盘以及各大压制组压制的视频,但是对于普通用户来说,这个问题就比较棘手了。

对于一些 VR 设备来说,我们甚至期望视频能有 4k+ 的分辨率,以获得更好的观影体验。

让我们来压制第一个视频!别担心,后面我们会提供全 Docker 化的解决方案,毕竟配环境总是令人痛苦万分的 lol

import vapoursynth as vs
from vapoursynth import core

clip = core.bs.VideoSource(source="s.mkv")
clip.set_output()

接下来,我们用 vspipe 来执行这个脚本,pipe 到 ffmpeg 开始压制

vspipe script.py - | ffmpeg -i - -vcodec libx265 -crf 16 output.mkv

超分辨率

通过 SISR (Single Image Super-Resolution) 或者 VSR (Video Super-Resolution) 技术,我们可以轻松 Enhance 视频

不过这个方向并没有 huggingface 那种方便的 lib ,vs 社区里的一些方案也并不是那么灵活

所以我们开源了 ccrestoration,一个基于纯 PyTorch 的 SR 推理库,依赖干净,没有 MMCV,设计上参考了 BasicSR 和 huggingface Transformers 。通过自定义配置,可以轻松 online load 各种各样的社区模型

当然,它也支持 vs ,你可以直接在 vs 脚本里调用它

import vapoursynth as vs
from vapoursynth import core

from ccrestoration import AutoModel, BaseModelInterface, ConfigType

model: BaseModelInterface = AutoModel.from_pretrained(
    pretrained_model_name=ConfigType.RealESRGAN_APISR_RRDB_GAN_generator_2x
)

clip = core.bs.VideoSource(source="s.mp4")
clip = core.resize.Bicubic(clip=clip, matrix_in_s="709", format=vs.RGBH)
clip = model.inference_video(clip)
clip = core.resize.Bicubic(clip=clip, matrix_s="709", format=vs.YUV420P16)
clip.set_output()

现在,我们可以自由地调用相当多的 SR 模型了,它有完整的类型提示

容器化

2024 年了,不搞 Docker 怎么行呢? AMD ROCm 甚至已经支持了 WSL2 Docker ,让我们把上面的环境打包吧~

vs-playground 提供了打包好的环境,以及提供了基于 Juptyer 的 Web IDE

你可以直接在浏览器里写 vs 脚本,在线预览任意一帧,调整参数,开始压制

分布式

不过,单机压制速度还是太慢了,所以我们构建了一个并行压制的最小实现 FinalRip

通过简易的 Dashboard ,你可以轻松分布式执行你在 vs-playground 里写好的脚本

FinalRip 会把视频切成多个 clip ,接着送到队列里,等待 worker 消费,最后合并输出。当然现在还是实验阶段,API 写的也很糙

全自动追番

构建了上面的工具链,老二刺螈初心还是不能忘,所以我们还开源了一个全自动追番工具 AnimePipeline

配置 RSS ,自动下载任务送到 FinalRip ,然后上传到 Telegram 等,方便分享给大家

可是,新番很多都是英肉,人名看不懂咋办啊?幸好现在有 LLM ,结合 bangumi 信息,翻译质量还是不错的。

我们开源了一个简单的 LLM 动漫翻译字幕工具 yuisub ,它提供了自动生成双语 ASS 特效字幕的 API ,也可以作为 cli 使用

结语

这套工具链目前还处于早期开发阶段,如果你有任何问题,欢迎提出 issue

近期会完善 SR 推理库,支持更多的网络结构

下面是所有提及的仓库:

4519 次点击
所在节点    程序员
42 条回复
qinfengge
24 天前
牛逼,不过最近很少看剧了,看的话也是直接转存到网盘或者 TVBOX 了。
neutrino
24 天前
目标受众是眼镜用户和拥有 4k 以上分辨率显示器的用户,感觉现在看的还是 720p 上下比较多
Lychee0
24 天前
@neutrino
720p 不至于吧
国内流媒体再阉割,1080p 还是有的?我也不太清楚
DylanRing0
24 天前
挺好的项目,就是缺了滤镜要自己装会挺麻烦的
希望模型的部分可以和这个项目对标 https://github.com/styler00dollar/VSGAN-tensorrt-docker
Lychee0
24 天前
@DylanRing0
- 这个项目有参考的,不过 sudo 写的 Dockerfile 属实难懂,索性暂时 conda 一把梭了。最近还似乎移除 torch 了,我也不太清楚它现在咋整的,可能 all in trt 了
- 不是很熟悉 vs ,滤镜的话希望有人帮忙 pr 下,目前 conda 没有的滤镜暂时就没整。其实 vs 用户的话用 arch 做 base container 应该更方便一些,aur 编译滤镜很省事
- 考虑 ROCm 短期不会写 trt 支持
- 补帧或者其他任务的话可能会单独写个新库,看计划安排
nilaoda
24 天前
二次元头像技术力还是强👍
sayyiku
24 天前
太感谢了,正好需要
akatale
24 天前
@nilaoda 没想到牢大 V 站也有号,这是找回密码了?
guanzhangzhang
24 天前
对这种使用技术解决生活和兴趣方向上遇到问题的态度和执行力点赞
Lychee0
24 天前
@nilaoda 牢大,你的 bbdown 太好用辣
iorilu
24 天前
问下, 有没有好用的 python 库用来剪辑视频的或者包装好的 gui

有时候其实就需要简单剪辑, 没必要用剪影之类工具
nilaoda
24 天前
@akatale V 站不常用……
deplives
24 天前
我都是 ffmpeg 一把梭
hafuhafu
24 天前
好长一段,看着效果挺不错的,抽空试一下。
感觉翻译时,如果已经从 bangumi 取数据了,是不是还能顺便生成一下刮削信息啥的。
kero991
24 天前
我还是多年前自己搞过 avs+megui 的组合,不知道现在你们都用啥,当年有一个内置的某压片组预设的 megui ,现在也丢了。自己搞参数显然没前途
ala2008
24 天前
感觉很强大,但是有没有基于浏览器插件看片自动翻译( dog
Lychee0
24 天前
@kero991
第一段就说了哦 vs pipe 到编码器
avs 基本没啥组用了
Lychee0
24 天前
@hafuhafu
这方面不太熟悉
不过我认为发种命名规范(见 animepipeline 的自动重命名截图)下游刮削是没有问题的
Lychee0
24 天前
@iorilu
剪辑的话… 好像就 pymovie ?也不是太方便
akatale
23 天前

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1084071

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX