基本信息

论文标题:《Mangan:Assisting Colorization Of Manga Characters Concept Art Using Conditional GAN 》 —— 使用条件GAN辅助漫画人物概念艺术的着色

论文链接https://ieeexplore.ieee.org/stamp/stamp.jsp?arnumber=8803667&casa_token=1HtzmvCWXucAAAAA:MEdu83aRd8aNcUcA4OkLGmkeK66c_hl4z-Qkh1zoHgGJzxongNZAEsy1uwD-kjMpbJC2JwKVgnv0

关键词: colorization(上色),DeepLearning,Gans

发表会议:2019 ICIP

主要贡献:实现了基于cGAN的半自动漫画着色框架。

创新点

  • 采用半自动颜色提示的方法,以cGAN为主要网络结构,搭建了着色框架

(论文实在是太短了…

实验过程

数据集

1. 原始图片

safebooru收集动漫人物图片,最后留下13000照片(这么来看,感觉5000-10000张训练集是比较合适的!

2. 线稿提取

先将彩色图像转换为灰度图,然后应用自适应阈值,进行图像分割,得到最后的线稿图片。

⚠️ 这篇论文有代码,可以翻出来看看这个提取对风景图有没有效果。

如果拿skech-simplification对线稿进行优化,质量会更高,不过参数需要好好确认一下。上一排的笔触会粗一点,看上去虽然没那么精细,但是留了很多想象空间,在上色过程中可能加个阴影啥的。

3. 颜色提示

用白色的色块替换图像中的随机区域,当作是无效提示。然后,在颜色提示中应用了中值模糊,使得颜色细节淡出,它不能用于发现小而复杂区域的确切颜色。

如果做完全的用户提示,这个半自动实在好尴尬,还是随机像素点或者笔划提示比较好看。

网络结构

简洁的爆炸…

实验结果