理解度チェック: GAN の構造
正誤問題: 弁別子ネットワークと生成ネットワークは、生成ネットワークによって生成されたデータと弁別子によって生成されたラベルを介してのみ相互に影響します。バックプロパゲーションの場合、これらは個別のネットワークです。
False
正解: 生成器のトレーニング中、勾配は弁別子ネットワークを介して生成器ネットワークに伝播します(ただし、生成器のトレーニング中に弁別子の重みは更新されません)。したがって、識別子ネットワークの重みは、生成ネットワークの更新に影響します。
正しい
誤り: 生成器のトレーニング中に、勾配は弁別子ネットワークを介して生成器ネットワークに伝播します(ただし、生成器のトレーニング中に弁別子の重みは更新されません)。
正誤問題: 一般的な GAN は、生成器と識別子を同時にトレーニングします。
正しい
不正解です。一般的な GAN は、弁別子のトレーニングとジェネレータのトレーニングを交互に行います。ジェネレータと弁別子を同時にトレーニングする [研究](https://arxiv.org/abs/1706.04156) があります。
False
正解です。一般的な GAN では、弁別子のトレーニングと生成器のトレーニングを交互に行います。
正誤問題: GAN は、ディスкриминエータと生成ツールのトレーニングの両方で常に同じ損失関数を使用します。
False
正解です。GAN は、生成者と識別子の両方のトレーニングに同じ損失(または符号が異なる同じ損失)を使用できますが、必須ではありません。実際、弁別子と生成ツールに異なる損失を使用するのが一般的です。
正しい
不正解です。GAN は、生成者と識別子の両方のトレーニングに同じ損失(または符号が異なる同じ損失)を使用できますが、必須ではありません。実際、弁別子と生成ツールに異なる損失を使用するのが一般的です。
特に記載のない限り、このページのコンテンツはクリエイティブ・コモンズの表示 4.0 ライセンスにより使用許諾されます。コードサンプルは Apache 2.0 ライセンスにより使用許諾されます。詳しくは、Google Developers サイトのポリシーをご覧ください。Java は Oracle および関連会社の登録商標です。
最終更新日 2025-02-26 UTC。
[null,null,["最終更新日 2025-02-26 UTC。"],[[["During generator training, gradients propagate through the discriminator to the generator, influencing its updates."],["A typical GAN alternates between training the discriminator and training the generator, rather than simultaneous training."],["GANs often employ different loss functions for the discriminator and generator, optimizing each network separately."]]],[]]