预览视频:
视频链接(https://www.bilibili.com/video/av14443094/)
项目主页:
lllyasviel/style2paints(https://github.com/lllyasviel/style2paints)
这里做一个简单的示范,为了防止线稿的主观挑选,我先贴一下现在的时间:
然后就在这个时间,我上谷歌图片搜索关键词“Anime Sketch”(动漫线稿),结果在这里:
然后我直接下载第一个结果,不含挑选的成分,这个图片下载下来是这样的:
然后我们的AI需要用户输入一些风格图片,不限制内容,只要颜色比较好看,色域比较宽泛即可。我在桌面上新建了一个文件夹,里面从我的个人收藏中随便选了9张色彩各不相同的图片给AI参考,截个图:
然后我直接把这九个图片和上面那个线稿丢到AI里面,一共点击9次上传按钮,9次上色按钮,大约10分钟后,我有了9张线稿的不同色彩构图。
这九个结果和我上面那个文件夹里面的九个参照图片一一对应,有兴趣可以来回翻看。看看AI迁移了哪些信息。
因为是在知乎上面发帖子,所以这里多说一些学术上的突破,具体效果在上面那个视频里面,请一定要看视频,看视频,看视频。
1. 我们成功实现了基于语义信息迁移的颜色提示,这个技术使得上色的色彩变得很和谐。这个技术最早是2017年1月左右早稻田和UCB都有相关研究的一个应用于黑白照片上色的trick。但是anime线稿上色是非常非常严酷的挑战,很多机构都有所尝试,包括今年六月的DWANGO(niconico的母公司),东大在内的一些机构都尝试了迁移式上色,但是都停留在了从结果里面精挑细选的程度,并不能直接运用起来。我们实验室研究了很久尝试了几乎全部生成模型,最后终于组织了一种可以驾驭这个训练的对抗游戏,具体的内容会在后续的论文里面详细说明。
2. 基于语义信息迁移的颜色提示对于anime线稿上色有很重要的意义。一方面解决了“用户的提示越多,结果越难看”以及“我调了半天结果还没有一开始的结果好看”的问题,另一方面大大提高了产率。目前我们可以做到在短时间内针对同一个线稿生成大量各不相同的,合理的色彩构图,这将有利于那些把神经网络作为一个构图工具或者颜色草稿的画师。详情可以看上面那个视频。
3. 我们的正式APP会在一段时间后(由于我们比较穷租不起超级贵超级贵的GPU服务器,可能是一段很长的时间后)上线,但是如果你是reseacher,你可以直接在我们的项目主页里面获取代码来一睹为快。另外我们还有扩大数据集的计划,所以商业APP可能需要等待了。但是这仅仅是财政问题,我们的学术代码,模型等资料完全公开,如果你有兴趣赞助或者你有GPU服务器空闲准备低价外租,请务必联系我们,加视屏最后的那个群就好了。
4. 如果您在看完视屏或者了解了我们的项目之后立刻就想要获得paper,有一篇paper介绍了我们在今年6月份之前的所有技术,收录在ACPR2017,详情可以到github上面找到。但我们更希望向外界介绍一些近期的新研究发现,新的论文成文后会发到github上面。论文:Style Transfer for Anime Sketches with Enhanced Residual U-net and Auxiliary Classifier GAN;地址:https://arxiv.org/abs/1706.03319
5. 我们有自信认为我们是目前是所有开源的anime上色模型里面的非常优异的(paintschainer已经闭源了模型数据;传统方案不在我们的比较范围内)。并且我们认为我们最新的模型对于paintschainer的最新模型也是可以一比的,尤其是我们在迁移顺利的时候效果是比以前的模型有很大提升的。
-------------------第二天来更新-------------------
赞超过两百了,谢谢大家的赞,我再发一点我今天的画作吧。
首先这是找到的线稿:
这是我用到的风格图:
这是结果:
评论里面有问起当输入或者输出非常复杂的情况会怎么样,情况是这样的,随着线稿和风格图变得复杂,成功上色的概率会逐渐降低,如果线稿或者风格图片复杂到人眼都看不清那里是脸哪里是手,就会非常难以上色,我们的github里面有一个issue就是专门针对上色失败问题的,等程序上线之后,您也可以帮助我们收集,来改善我们的模型。
-------------------第三天来更新-------------------
说一点技术上的事情:
不知道是什么时候开始的,关于图像处理出现了一个套路,就是用ResNet堆砌网络深度,然后就可以量产出论文,最近有很多类似的文章。我们的模型里面没有ResBlock。我们使用的是特别适合线稿上色的,一种变种Inception。
本文作者:Non
本文转自雷锋网禁止二次转载,原文链接