Paper 3

[Computer Vision] StyleGAN: A Style-Based Generator Architecture for GANs 논문 리뷰 및 구현 (1)

이번에 소개할 논문은 A Style-Based Generator Architecture for Generative Adversarial Networks으로 StyleGAN으로 자연스러운 고해상도 이미지를 만들면서 많이 알려지게 된 논문입니다. 저희 학회 컨퍼런스에서 함께 진행한 논문 스터디이기 때문에 팀원인 https://rahites.tistory.com/85?category=1083611의 글에서 조금 수정해서 작성하도록 하겠습니다. StyleGAN ( A Style-Based Generator Architecture for Generative Adversarial Networks ) Abstract [제안한 네트워크] StyleGAN은 기존의 PGGAN 구조에 Style transfer 개념을 적용..

DL/Computer Vision 2023.02.10

[Computer Vision] Cycle GAN: Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks 논문 리뷰 및 구현 (2)

https://mz-moonzoo.tistory.com/18 [DL-Papers] Cycle GAN: Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks 논문 리뷰 및 구현 ≒Paper: https://arxiv.org/abs/1703.10593 0. Abstarct Image-to-image translation은 pair-image를 이용해 입력이미지와 출력 이미지 간의 매핑을 학습합니다. 그러나 많은 task의 경우 pair-image를 이루는 훈련 데이터를 mz-moonzoo.tistory.com 이전 글 CycleGAN 논문 리뷰입니다. 이론적인 부분을 참고하시면 될 것 같습니다. CycleGAN 논문 구..

DL/Computer Vision 2023.01.25

[Computer Vision] Cycle GAN: Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks 논문 리뷰 및 구현 (1)

≒Paper: https://arxiv.org/abs/1703.10593 0. Abstarct Image-to-image translation은 pair-image를 이용해 입력이미지와 출력 이미지 간의 매핑을 학습합니다. 그러나 많은 task의 경우 pair-image를 이루는 훈련 데이터를 구하기가 어렵습니다. 그래서 이 논문(Cycle-GAN)에서는 pair image를 이루는 데이터가 없을 때 원본 도메인 X에서 대상 도메인 Y로 이미지 번역하는 방법을 학습하는 방법을 제시합니다. 여러가지 이전 방법과 비교 해봤을 때, Cycle-GAN의 접근 방식은 우수성을 보여줍니다. 1. Introduction pair-image를 이루는 훈련 데이터를 구하기가 어렵고 비용이 많이 들 수 있습니다. 논문에서..

DL/Computer Vision 2023.01.20