1枚のアノテーションでsemantic part segmentationが可能に! | AI-SCHOLAR | AI:(人工知能)論文・技術情報メディア
3つの要点✔️ 1~10個画像に手動アノテーションを行うだけでsemantic part segmentationが可能✔️ GANの内部表現を利用✔️ 少ない教師データにも関わらず10~50倍のデータと同程度の性能Repurposing GANs for One-shot Semantic Part Segmentationwritten by Nontawat Tritrong, Pitchaporn Rewatbowornwong, Supasorn Suwajanakorn(Submitted on 7 Mar 2021 (v1), last revised 5 Jul 2021 (this version, v5))Comments: CVPR 2021 (Oral)Subjects: Computer Vision and Pattern Recognition (cs.CV); Machine Learning (cs.LG)code: 本記事で使用している画像は論文中のもの、紹介スライドのもの、またはそれを参考に作成したものを使用しております。 はじめに先行研究では、GANの内部情報をより解釈しやすくすることでGANを分析しようとする先行研究があります。GANの潜在コードをユーザが弄ることで生成画像を制御する研究もあります。本論文ではGANの内部表現は生成画像と密接に関係しており、セマンティック情報を保持することができるとの仮定を用いています。本論文で扱っているSemantic part segmentationは画像内のオブジェクトのセグメント化を行うsemantic segmentationとは異なり、オブジェクト内のパーツのセグメント化を目的としています。これは、目や鼻・顔のように2つのパーツ間に目に見える境界がない場合があるためsemantic part segmentationはより困難なタスクとなります。