현재 이미지 생성 AI 모델들 중 가장 각광받는 것은 단연 Diffusion Model이다. 무작위로 생성 대상을 결정하던 Diffusion Model이 발전을 거쳐 입력 텍스트에 맞게 이미지를 생성할 수 있게 되면서, 자연스레 입력 텍스트에 따라 원본 이미지의 대상 혹은 스타일을 편집하는 기술에 대한 연구가 진행되었다. 본 세미나에서는 이러한 Diffusion Model 기반 편집 기법의 개괄적인 내용과 최신 방법론에 대해 소개한다.
참고문헌 :
[1] Ho, Jonathan, Ajay Jain, and Pieter Abbeel. "Denoising diffusion probabilistic models." Advances in Neural Information Processing Systems 33 (2020): 6840-6851
[2] Song, Jiaming, Chenlin Meng, and Stefano Ermon. "Denoising diffusion implicit models." arXiv preprint arXiv:2010.02502 (2020).
[3] Ho, Jonathan, and Tim Salimans. "Classifier-free diffusion guidance." arXiv preprint arXiv:2207.12598 (2022)
[4] Rombach, Robin, et al. "High-resolution image synthesis with latent diffusion models." Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2022
[5] Hertz, Amir, et al. "Prompt-to-prompt image editing with cross attention control." arXiv preprint arXiv:2208.01626 (2022).
[6] Tumanyan, Narek, et al. "Plug-and-play diffusion features for text-driven image-to-image translation." Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2023.
[7] 김준호 - NAVER AI LAB. "생성모델부터 Diffusion까지 3회 I 모두의연구소 모두팝."KZitem, KZitem, 3 Jan. 2023, www.youtube.com/watch?...
Негізгі бет [Open DMQA Seminar] Image Editing with Diffusion Models
Пікірлер: 3