GAN生成新数据的相关论文



  • 最近达闼给刚哥了一个项目,做商品的数据增强,目的是用较少的摄像头采集数据,使用生成模型生成更多角度的图片,以此达到数据增强的目的。这里积累一些论文。

    • Unsupervised Person Image Synthesis in Arbitrary Poses
      http://www.iri.upc.edu/people/aagudo/Papers/CVPR2018/apumarola_etal_cvpr18_2.pdf

      CVPR 2018 Spotlight 论文,ReID + GAN 换 pose。
      本文用了较多的篇幅讲 loss function,pose 的提取用的是 OpenPose 这个库。
      其 loss 分为三部分:
      1.Image Adversarial Loss:即传统 GAN 的 loss;
      2.Pose Loss:pose 差异,生成后的图片再用 OpenPose 提取 pose 信息做差值;
      3.Identity Loss:此为关键,又分为两部分,分别是 content 和 style loss,其中 content 用于保证生成图和原图在某 pretrain model 生成的 feature map 一致, style 则是利用 Gram matrix 生成某种 feature map,然后作比对。

    • Feature Space Transfer for Data Augmentation
      替代文字

    • Multi-Content GAN for Few-Shot Font Style Transfer
      论文:https://www.paperweekly.site/papers/1781
      代码:https://github.com/azadis/MC-GAN
      在只看到少量已有艺术字母的劣势下,通过 GAN 来自动生成那些我们需要但又缺失的相同风格的字母。


 

Copyright © 2018 bbs.dian.org.cn All rights reserved.

与 Dian 的连接断开,我们正在尝试重连,请耐心等待