0
译者:AI研习社(星期五)
双语原文链接:Ukiyo-e faces dataset
作为论文域之间可控图像合成的分辨率相关GAN插值[1]的一部分,我使用浮世绘的人脸图像数据集来训练StyleGAN模型,本文包含该数据集的链接和该数据集的详细信息。
V2-删除了28张质量不好的图像(对准不良或没有正面)。
V1-最初的发行版,使用在与分辨率相关的GAN插值的论文中,用于域之间的可控图像合成。
浮世绘人脸数据集包含来自浮世绘照片的5209张脸部图像。 图像格式为1024x1024的jpeg,并已根据FFHQ数据集所使用的过程进行了对齐。 上面是数据集中(几乎)所有图像的地图,越相似的图像彼此越靠近[2]。 为便于显示,图像像素已降至 256x256。
更多细节
图片是从数个博物馆网站上刮下来的,然后我试着用Amazon Rekognition从每个图片中检测面部和面部标志。 Rekognition相对合理地完成了任务,但是显然并不完美,很多面部都被遗漏了,并且许多图像中都存在对齐错误。 许多图像的分辨率不是很高,因此要生成可用的1024x1024分辨率的数据集,我使用在Manga109数据集上训练的预训练ESRGAN [3]模型来按需放大图像,这些图像偶尔会出现一些瑕疵,但大体上结果不错。
KaoKore是浮世绘人脸的另一个数据集[4],它具有更多的变化和标签,但是图像分辨率较低且人脸未对齐。
此数据集是根据知识共享署名-相同方式共享4.0国际许可提供的。
如果使用数据集,请引用为“Aligned ukiyo-e faces dataset, Justin Pinkney 2020”或一个bibtex条目:
@misc{pinkney2020ukiyoe, author = {Justin N. M. Pinkney}, title = {Aligned Ukiyo-e faces dataset}, year={2020}, howpublished= {\url{https://www.justinpinkney.com/ukiyoe-dataset}} |
Pinkney, Justin N. M., and Doron Adler. ‘Resolution Dependent GAN Interpolation for Controllable Image Synthesis Between Domains’. ArXiv:2010.05334 [Cs, Eess], 20 October 2020. http://arxiv.org/abs/2010.05334.↩
为了生成此图像,我首先使用在Imagenet上预训练的ResNet50从每个图像中提取CNN特征。 然后使用UMAP将这些高维特征向量投影到二维,然后使用lapjv算法完成网格划分。
Wang, Xintao, Ke Yu, Shixiang Wu, Jinjin Gu, Yihao Liu, Chao Dong, Chen Change Loy, Yu Qiao, and Xiaoou Tang. ‘ESRGAN: Enhanced Super-Resolution Generative Adversarial Networks’. ArXiv:1809.00219 [Cs], 1 September 2018. http://arxiv.org/abs/1809.00219.↩
Tian, Yingtao, Chikahiko Suzuki, Tarin Clanuwat, Mikel Bober-Irizar, Alex Lamb, and Asanobu Kitamoto. ‘KaoKore: A Pre-Modern Japanese Art Facial Expression Dataset’. ArXiv:2002.08595 [Cs, Stat], 20 February 2020. http://arxiv.org/abs/2002.08595.↩
AI研习社是AI学术青年和AI开发者技术交流的在线社区。我们与高校、学术机构和产业界合作,通过提供学习、实战和求职服务,为AI学术青年和开发者的交流互助和职业发展打造一站式平台,致力成为中国最大的科技创新人才聚集地。
如果,你也是位热爱分享的AI爱好者。欢迎与译站一起,学习新知,分享成长。
雷峰网版权文章,未经授权禁止转载。详情见转载须知。