논문읽기 | Unpaired Image-to-image Translation using Cycle-consistent Adversarial Networks
1. Introduction supervised한 image translation은 paired image 데이터셋을 얻기 힘듦. 그래서 cycle consistent한 속성을 가지는 translation을 사용 2. Related Work GAN, Image-to-Image Translation, Unpaired Image-to-image translation, Cycle consistency, Neural style transfer 안읽었음 3. Formulation 3.1. Adversarial loss Lgan=평균(로그(구별자가 y를 제대로구별해냄)) + 평균(로그(구별자가 G(x)를 못구별해냄)) 3.2. Cycle Consistency loss ??? 앞부분 이해 X adversarial loss 만으로는 인풋과 desired 아웃풋을 map하는것을 보증못함 그래서 x -> G(x) -> F(G(x))가 x와 비슷하도록 함 (forward cycle consistency) 그리고 y -> F(y) -> G(F(y))도 y와 비슷하도록 함(backward cycle consistency) Lcyc=평균(F(G(x))와x의 L1에러) + 평균(G(F(y))와 y의 L1에러) 3.3 full objective Lgan(G와 D_Y) + Lgan(F와 D_X) + 람다*Lcyc 이때 D는 손실을 max하고싶어하고 F,G는 min하고싶어함 이건마치 두개의 오토인코더를 트레이닝하는것과 같다(?) 두 손실함수 다 필수적이고 사이클도 쌍방향 모두 필요 4. implementation 네트워크 구조: 생성 네트워크 구조는 Johnson et al의 네트워크를 차용 (https://arxiv.org/pdf/1603.08155.pdf) instance normalization을 사용?? 구별자 네트워크 구조는 PatchGAN을 사용? 트레이닝: negative log-likelihood 대신 least-squares loss를 사용 (안...