12월, 2020의 게시물 표시

논문읽기 | Unpaired Image-to-image Translation using Cycle-consistent Adversarial Networks

1. Introduction supervised한 image translation은 paired image 데이터셋을 얻기 힘듦. 그래서 cycle consistent한 속성을 가지는 translation을 사용 2. Related Work GAN, Image-to-Image Translation, Unpaired Image-to-image translation, Cycle consistency, Neural style transfer 안읽었음 3. Formulation 3.1. Adversarial loss Lgan=평균(로그(구별자가 y를 제대로구별해냄)) + 평균(로그(구별자가 G(x)를 못구별해냄)) 3.2. Cycle Consistency loss ??? 앞부분 이해 X adversarial loss 만으로는 인풋과 desired 아웃풋을 map하는것을 보증못함 그래서 x -> G(x) -> F(G(x))가 x와 비슷하도록 함 (forward cycle consistency) 그리고 y -> F(y) -> G(F(y))도 y와 비슷하도록 함(backward cycle consistency) Lcyc=평균(F(G(x))와x의 L1에러) + 평균(G(F(y))와 y의 L1에러) 3.3 full objective Lgan(G와 D_Y) + Lgan(F와 D_X) + 람다*Lcyc 이때 D는 손실을 max하고싶어하고  F,G는 min하고싶어함 이건마치 두개의 오토인코더를 트레이닝하는것과 같다(?) 두 손실함수 다 필수적이고 사이클도 쌍방향 모두 필요 4. implementation 네트워크 구조: 생성 네트워크 구조는 Johnson et al의 네트워크를 차용 (https://arxiv.org/pdf/1603.08155.pdf) instance normalization을 사용?? 구별자 네트워크 구조는 PatchGAN을 사용? 트레이닝: negative log-likelihood 대신 least-squares loss를 사용 (안...

세미나 필기 | 12월 9일 Towards Natural Motion Generator

이미지
 지난주 너무 바빠서... 필기까진 못했다 이번주는 고려대 최성준 교수님의 세미나.. 오늘은 로보틱스 관련이다... 아 영어를 너무 잘하시는데 내가 너무 영어를 못해서 속도를 못따라가겠다 큰일이다 필기시작 natural robot motion generation 로봇은 모터를... ?? self-collision을 주의해야되고 motion retargeting 모션캡쳐로 스켈레톤??? 3D 스켈레톤 데이터... 할 수 있음 로봇의 관절은 구조, 개수, 어쩌구 저쩌구가 사람과 다름 로봇끼리도 관절이 다르고... ??? 같은 행동이라도..?? 같은 자세라도??? 로봇마다 똑같이 못함 (아... 관크를 세미나에서 당할 줄이야...)  latent motion retargeting ??????????????????????????????????????? 아무튼 사람, 여러가지 서로 다른 종류의 로봇의... 행동을 서로... ?? 리타게팅... ?? ? reliable robot motion generation "MoCap" "latent consesus loss" "reconstruction loss" (for decoder) positive motions, negative motions(-> self collision) nonparametric motion retargeting 1도 못알아들음 뭔가 리얼타임으로 변환되고있음 structured reinforcement learning sample-efficient RL 시뮬레이션은 현실이랑 오차가 있으니까 실제 로봇으로도? 실험해야 하는데? 실제 로봇으로 실험할때는 ?? 그래서 sample-efficiency가 중요??? trajectory-based RL timestamp joint trajectory?? ?? 못알아들음 Entropy regularized RL loss surface를 smooth out 함 또 못알아들었고 나는 말하는 감자다 나는 빡대가리...