2
本文作者: 谷磊 | 2017-02-14 17:19 |
雷锋网按:本文作者李睿,程序辅助作画的美术内容生产者。原载于知乎,雷锋网获授权转载。
基于一直都在做相关的东西,并且实际应用的经历,我认为绘画中的部分工作会有越来越多的可依靠机器,但是取代插画师是不太可能的,被取代的主要为底层的重复劳动工作者。
这个问题和几个概念有关,设计、艺术、插画师(美术职业方向)。
首先对于设计和艺术,不太了解的可以查询下相关的回答,有很多答案都说得很好。出于部分人对艺术的定义,人工智能是没法达成超越人的,因为这违反其定义,所以我个人也认为艺术家是不会被人工智能取代的。
不过,目前的大部分美术相关的职业其实设计的部分会更多些。对于插画师,广义的定义是画画为职业的人,但是目前的插画师,更多的工作主要是完成一种叫插画的美术品,其是纯艺术和设计的结合,是有包含甲方的设计的需求的,需要对主题、构图进行个人意向之外的控制。
再狭义些,主要就是完成书籍中的配图,将文字通过画面进一步表达,而对于这种情况装饰性(美不美),个人风格,与文字的匹配度(是一种设计)都有要求。我个人认为插画师在众多美术相关职业里,艺术性是偏多的,个人风格对于目前的插画师很重要,因此在未来,插画师并不会被人工智能取代。前段时间微博上有有关插画画风重要性的讨论,有兴趣了解的可以查看。
不过随着这个工具的出现,插画和各种绘画的制作可以进一步简化。每次工具的革新,实际上都可能是一次解放,让我们可以更好的表达自我。
概念设计师/原画可以更专注于设计,而细化部分程序可以完成,贴素材的工作程序做难道不更好?pix2pix phillipi/pix2pix已经展现了这样的潜力。有可能,未来只需要完成部分轮廓和剪影的设计,计算机就可以自动生成细化的画面,完成黑白的光影就可以涂画大体的颜色,我想这是可以让工作者更专注于他们的设计工作的。
美术素材工作者(游戏/动画素材),工作量更少,因为素材们可以被程序生成或修饰。比如,下图根据需求基于例子生成画面(纹理)alexjc/neural-doodle,有关neural style transfer更多的实现(包含近期的文章)titu1994/Neural-Style-Transfer;或是通过人工智能对画面进行变化(比如变笑脸的Faceapp,其基本方法也可以应用于材质旧化[1611.05507] Deep Feature Interpolation for Image Content Changes)。值得一提的是,纹理生成和旧化(Time-varying weathering in texture space)都已有很多传统算法,效果也很好。
对于绘画自动的清线稿和上色(不需要清稿和上色助手了,清稿シモセラ・エドガー ラフスケッチの自動線画化,上色初心者がchainerで線画着色してみた。わりとできた。 - Qiita | 飯塚里志 - ディープネットワークを用いた大域特徴と局所特徴の学習による白黒写真の自動色付け,这3个例子都是最近非常火的,就不详细展望了)。
其实对于自动上色来说,Paintschainer与传统的算法相比的优势是:
它可以进行一定的色彩设计。传统算法主要是独立解决了上色的分区问题(一开始需要封闭图形,目前实用的也可以允许非封闭图形了如ComicStudio系列软件),和色彩设计的问题,其实解决得比Paintschainer好。
Manga Colorization(个人认为效果上还是比Paintschainer的半自动算法好的)
Color Compatibility From Large Datasets(其实广义上来说这种手段也是属于目前的人工智能的,Data Driven嘛)
Paintschainer的另个优点是(或是目前这些神经网络算法),它的制作相对简单很多,对于制作者(研究人)的先验知识要求少了很多,特征都由神经训练自行得到,会使得各种辅助功能的工具开发和应用的速度快得多。开发的难点反而可能是特定领域的数据的准备。(自动补间也有传统的算法,不过目前好像未见对于2D动画的基于神经网络的实现)
未来,画面构成可以自动化吗?大部分人画画用的设计套路一定会被计算机学会的,它会学的更好,目前已经有对摄影的构图和色彩的例子了,所以不说完全的自动设计画面,半自动肯定是会来到的。至于全自动呢?GAN相关的研究也有看图说话的例子。不过,基于设计需要理解和交流的情况,我认为全自动的用处并不是很大。
总结
我们有了新的更好的工具,可以将宝贵的时间做更多更美好的事了(包括进一步优化工作),部分低级重复劳动工作者会被取代。
(说个很个人看法的东西,Adobe赞助了很多相关的研究,但是出现在Photoshop的寥寥无几,所以可能大部分重复劳动者也是不必要担心的。)
对Paintschainer的额外看法
个人认为线并不能完全提供着色所需要的信息,其实从线稿开始的着色是两个部分构成的:
光影
色彩
很多时候线稿给出的物体大概轮廓信息,但是对物体的细致结构信息不足够的,而大部分情况下对于光的信息也是不足够的(值得一提的是,训练该网络的例子线稿是带有一部分光影信息的)。所以在用一般线稿的处理结果上,着色的风格偏扁平一点。个人观点,光影对风格的影响更大。希望实现阴影着色的效果,可以在线稿上进一步绘画明暗交界线。如果真的需要作为工具使用,该应用还学结合些传统算法,如基本的平滑。
(加入阴影指示的结果。含有阴影指示更符合数据集。copyright weibo@ZE_LE)
此外基于上述对线稿的描述,如果作为工具设计,实现上我可能分两步执行,线——>光影——>色彩,下面是灰度图用Automatic Image Colorization・白黒画像の自動色付け(在线demo)处理的结果,我认为效果是挺不错的,不过既然都上了光影,色彩也是很快的事了。
(comixwave 新海诚)
(吉卜力)
自动着色作者Edgar Simo-Serra的另个研究,线稿简化的在线demo Sketch Simplification・ラフスケッチの自動線画化。
雷峰网版权文章,未经授权禁止转载。详情见转载须知。