이해도 확인: GAN 분석
참 또는 거짓: 분류자 네트워크와 생성자 네트워크는 생성기에서 생성한 데이터와 분류자가 생성한 라벨을 통해서만 서로 영향을 미칩니다. 역전파의 경우 별도의 네트워크입니다.
거짓
정답: 생성자 학습 중에 구분자 네트워크를 통해 생성자 네트워크로 경사가 전파됩니다 (단, 구분자는 생성자 학습 중에 가중치를 업데이트하지 않음). 따라서 판별자 네트워크의 가중치가 생성자 네트워크의 업데이트에 영향을 미칩니다.
참
잘못됨: 생성자 학습 중에 경사는 구분자 네트워크를 통해 생성자 네트워크로 전파됩니다 (구분자는 생성자 학습 중에 가중치를 업데이트하지 않음).
참 또는 거짓: 일반적인 GAN은 생성기와 구분자를 동시에 학습합니다.
참
틀렸습니다. 일반적인 GAN은 분류자 학습과 생성자 학습을 번갈아 반복합니다. 생성자와 구분자를 동시에 학습하는 [연구](https://arxiv.org/abs/1706.04156)가 있습니다.
거짓
정답입니다. 일반적인 GAN은 분류자 학습과 생성자 학습을 번갈아 반복합니다.
참 또는 거짓: GAN은 항상 판별자와 생성자 학습에 동일한 손실 함수를 사용합니다.
거짓
정답입니다. GAN이 생성자 및 판별자 학습 모두에 동일한 손실 (또는 부호만 다른 동일한 손실)을 사용할 수 있지만 필수는 아닙니다. 실제로는 구분자와 생성자에 서로 다른 손실을 사용하는 것이 더 일반적입니다.
참
틀렸습니다. GAN이 생성자 및 판별자 학습 모두에 동일한 손실 (또는 부호만 다른 동일한 손실)을 사용할 수 있지만 필수는 아닙니다. 실제로는 구분자와 생성자에 서로 다른 손실을 사용하는 것이 더 일반적입니다.
달리 명시되지 않는 한 이 페이지의 콘텐츠에는 Creative Commons Attribution 4.0 라이선스에 따라 라이선스가 부여되며, 코드 샘플에는 Apache 2.0 라이선스에 따라 라이선스가 부여됩니다. 자세한 내용은 Google Developers 사이트 정책을 참조하세요. 자바는 Oracle 및/또는 Oracle 계열사의 등록 상표입니다.
최종 업데이트: 2025-02-26(UTC)
[null,null,["최종 업데이트: 2025-02-26(UTC)"],[[["During generator training, gradients propagate through the discriminator to the generator, influencing its updates."],["A typical GAN alternates between training the discriminator and training the generator, rather than simultaneous training."],["GANs often employ different loss functions for the discriminator and generator, optimizing each network separately."]]],[]]