类似 PaintsChainer 的人工智能上色网站会在未来取代插画师吗?

先想强调下,很多人用一个产品的角度去看这网站。。。其实这网站只是“有个学生拿去年11月的一个学术界研究成果做了一个实验”而已。。。这问题回答下很多人提到的一些模型现在的问题说真的都不算啥问题。。。

1.

实验室同学告诉我这个后,我尝试了下表示非常震惊。。。

后来从他那里得知作者是和他一起在pfn的实习生,是个搞机器人方向的学生,他是申请了日本mitou的项目(IPA 独立行政法人 情報処理推進機構:未踏/セキュリティ・キャンプ )和别人一起在做自动画漫画还不知道是机器漫画辅助之类的研究项目,这个只是他们项目的一个小实验吧。

所以虽然你们看这个网站挂在pfn的名字,但实际上这并不是商业网站,也不是什么商业项目,估计只是因为作者在pfn实习的关系,就顺道用了pfn的资源,也给pfn顺道打打广告。。。

但这只是一个个人制作demo而已,看qiita作者应该也没有做很多fine-tunning,就是比较基础地套了pix2pix的模型。

现在有很多小问题基本不算什么事,至少这东西展示的效果作为一个prototype已经非常震撼了。。。

另外偏好金色发系可能是GAN的mode collapse问题,这个现在已经有一些解决方式

2.

大概2年前neural arts刚出来那阵子,和朋友聊天时,我就说应该可以尝试去搞搞给游戏线稿自动上色,这个应该非常有价值,如果效果不错的话就能降低视觉小说类游戏开发的门槛。不过在当时的模型看来这个还是非常困难的,因为上色这个事看起来需要对图片的结构性理解。。。

所以看到这个工作时,我们又是高兴又是伤心。。。

高兴是高兴在我们当时想的事情的prototype已经被人做出来了,证明了这是可能的。。。

伤心是因为pix2pix这东西在zhu junyan的文章在公开之前,别人就告诉我过这个工作,所以我们肯定比paintschainer的作者们更早知道这个工作,只是当时没多想,没想到把这个用在线稿上色上效果这么棒。。。

(PS:当然我也没在搞gan应用。。。)

3.

这个问题的回答下显著地分成了两派。。。想搞点事情的geek和不想失业的画师。。。

讲真的现在GAN类应用一个非常吸引人的地方就是门槛(看似)比较低(但实际要深入门槛其实很高)而且应用可以非常有趣。对于那些喜欢二次元的geek们从图站上很容易就能搞到很多自带标签的数据。。。

而时代告诉我们要去玩深度学习,discriminative model?多无聊,如果能自动画二次元美少女的话多有趣,这才是未来!喜欢二次元美少女?不会画二次元美少女?没关系我们可以自己用gpu去造嘛 。。。

所以经常能看到死宅们开始拿gan搞二次元应用,影响比较深一个是dcgan刚出来那会儿qiita上有人跑二次元人脸生成之类的。。。

然后今天reddit上某个论文的讨论帖里还看到有死宅说自己评测gan模型都是跑自己独家特制的asuka数据集。。。

可能我也是属于这类人中的一员吧。。。

之前对这个问题我也没有多想过,但有次我和某个设计类专业的朋友半开玩笑地说,“我们在做的事情,就是在未来用机器自动画美少女!”

哪知道他一脸严肃地回复我 “美少女绘中包含了很多创造者的主观想法,如果用机器去取代这些想法的话,我是非常厌恶的,如果你告诉一个死宅,他的嫁是机器自动生成的,我想除了一些geek之外大多数人都是不太愿意接受的吧 ”

后来我再和他交流了,我发现其中的一个代沟是我和他对自动创作的理解的差异。。。

对于我而言,我是不太相信能让deep generative model在一种完全的unsupervised的情况下产生什么有实际价值的东西的 。。。。比如最近日本网上有个比较火的是有人无聊用直接拿一堆pokemon的图片喂gan,尝试用gan去制造新型pokemon的记事。。。尼玛,对于这个我就想知道人是如何判断“某一坨东西像不像新型pokemon”这个事情的,(当然这效果也是可想而知。。。

我觉得对拿generative model用来创作上而言,在未来的应用中更应该是一种辅助工具 。

这里有两个角度,一个是提供比较傻瓜,相对粗糙的低成本快速解决方案,比如我画了一个场景,我想快速用某种风格着色渲染下看下效果 。。。

另一个是与人进行相对复杂的交互,incorporate创作者的想法 ,或者说尽可能地去提供些prior knowledge给模型,能给提供细部的细节方面的多种创作者的指定,并能拿出能让创作者满意的方案,这就类似于一个个人助理了,但还是需要创造者不断去融入主观想法。。。(怎么去incorporate想法的话就是另外的事情。。。无论是从模型的角度,还是交互的角度)

嘛,这听起来更加科幻一点。。。

说句非常现实的话。。。就是这个方面的模型现在在以非常惊人的速度发展。。。挺多不完善的地方以现在gan的发展速度来看,除非遇到比较大的瓶颈,不然可能也就几届icml,nips,iclr的事。。。

所以将deep generative model融入到创作的应用中,通俗地话讲就是“用ai去辅助创作”的趋势我觉得是势不可挡的。。。我有点“这个你不做马上也有一堆人会去做”的感觉。。。

(我看有人将我的答案简单理解成为画师要失业了。。。我完全没有这意思好吗。。。

来源:知乎 http://www.zhihu.com

作者:Amane Nagatsuki

【知乎日报】千万用户的选择,做朋友圈里的新鲜事分享大牛。

点击下载

此问题还有 123 个回答,查看全部。

延伸阅读:

如何在计算机中模拟一个生命,并让它进化出自我思维?

人工智能可以作曲吗?

Tags: