ICIP2019《Mangan》基于cGan的半自动上色框架
基本信息
论文标题:《Mangan:Assisting Colorization Of Manga Characters Concept Art Using Conditional GAN 》 —— 使用条件GAN辅助漫画人物概念艺术的着色
关键词: colorization(上色),DeepLearning,Gans
发表会议:2019 ICIP
主要贡献:实现了基于cGAN的半自动漫画着色框架。
创新点:
- 采用半自动颜色提示的方法,以cGAN为主要网络结构,搭建了着色框架
(论文实在是太短了…
实验过程
数据集
1. 原始图片
safebooru收集动漫人物图片,最后留下13000照片(这么来看,感觉5000-10000张训练集是比较合适的!
2. 线稿提取
先将彩色图像转换为灰度图,然后应用自适应阈值,进行图像分割,得到最后的线稿图片。
⚠️ 这篇论文有代码,可以翻出来看看这个提取对风景图有没有效果。
如果拿skech-simplification对线稿进行优化,质量会更高,不过参数需要好好确认一下。上一排的笔触会粗一点,看上去虽然没那么精细,但是留了很多想象空间,在上色过程中可能加个阴影啥的。
3. 颜色提示
用白色的色块替换图像中的随机区域,当作是无效提示。然后,在颜色提示中应用了中值模糊,使得颜色细节淡出,它不能用于发现小而复杂区域的确切颜色。
如果做完全的用户提示,这个半自动实在好尴尬,还是随机像素点或者笔划提示比较好看。
网络结构
简洁的爆炸…
实验结果
All articles in this blog are licensed under CC BY-NC-SA 4.0 unless stating additionally.