Comprueba tu comprensión: Anatomía de las GAN
Organiza tus páginas con colecciones
Guarda y categoriza el contenido según tus preferencias.
Verdadero o falso: La red del discriminador y la red del generador se influyen entre sí únicamente a través de los datos que produce el generador y las etiquetas que produce el discriminador. En el caso de la retropropagación, son redes separadas.
Verdadero
Incorrecto: durante el entrenamiento del generador, los gradientes se propagan a través de la red del discriminador a la red del generador (aunque el discriminador no actualiza sus pesos durante el entrenamiento del generador).
Falso
Correcto: durante el entrenamiento del generador, los gradientes se propagan a través de la red del discriminador a la red del generador (aunque el discriminador no actualiza sus pesos durante el entrenamiento del generador). Por lo tanto, las ponderaciones en la red discriminadora influyen en las actualizaciones de la red generadora.
Verdadero o falso: Una GAN típica entrena el generador y el discriminador de forma simultánea.
Verdadero
Incorrecto. Una GAN típica alterna entre el entrenamiento del discriminador y el entrenamiento del generador. Hay cierta [investigación](https://arxiv.org/abs/1706.04156) sobre el entrenamiento del generador y el discriminante de forma simultánea.
Falso
Correcto. Una GAN típica alterna entre el entrenamiento del discriminador y el entrenamiento del generador.
Verdadero o falso: Una GAN siempre usa la misma función de pérdida para el entrenamiento del discriminador y del generador.
Verdadero
Incorrecto. Si bien es posible que una GAN use la misma pérdida para el entrenamiento del generador y del discriminador (o la misma pérdida que solo difiere en el signo), no es obligatorio. De hecho, es más común usar pérdidas diferentes para el discriminador y el generador.
Falso
Correcto. Si bien es posible que una GAN use la misma pérdida para el entrenamiento del generador y del discriminador (o la misma pérdida que solo difiere en el signo), no es obligatorio. De hecho, es más común usar pérdidas diferentes para el discriminador y el generador.
Salvo que se indique lo contrario, el contenido de esta página está sujeto a la licencia Atribución 4.0 de Creative Commons, y los ejemplos de código están sujetos a la licencia Apache 2.0. Para obtener más información, consulta las políticas del sitio de Google Developers. Java es una marca registrada de Oracle o sus afiliados.
Última actualización: 2025-02-26 (UTC)
[null,null,["Última actualización: 2025-02-26 (UTC)"],[[["\u003cp\u003eDuring generator training, gradients propagate through the discriminator to the generator, influencing its updates.\u003c/p\u003e\n"],["\u003cp\u003eA typical GAN alternates between training the discriminator and training the generator, rather than simultaneous training.\u003c/p\u003e\n"],["\u003cp\u003eGANs often employ different loss functions for the discriminator and generator, optimizing each network separately.\u003c/p\u003e\n"]]],[],null,["# Check Your Understanding: GAN Anatomy\n\n\u003cbr /\u003e\n\nTrue or false: the discriminator network and generator network influence each other solely through the data produced by the generator and the labels produced by the discriminator. When it comes to backpropagation, they are separate networks. \nTrue \nIncorrect: during generator training, gradients propagate through the discriminator network to the generator network (although the discriminator does not update its weights during generator training). \nFalse \nCorrect: during generator training, gradients propagate through the discriminator network to the generator network (although the discriminator does not update its weights during generator training). So the weights in the discriminator network influence the updates to the generator network. \nTrue or false: a typical GAN trains the generator and the discriminator simultaneously. \nTrue \nIncorrect. A typical GAN alternates between training the discriminator and training the generator. There is some \\[research \\](https://arxiv.org/abs/1706.04156) on training the generator and discriminator simultaneously. \nFalse \nCorrect. A typical GAN alternates between training the discriminator and training the generator. \nTrue or false: a GAN always uses the same loss function for both discriminator and generator training. \nTrue \nIncorrect. While it's possible for a GAN to use the same loss for both generator and discriminator training (or the same loss differing only in sign), it's not required. In fact it's more common to use different losses for the discriminator and the generator. \nFalse \nCorrect. While it's possible for a GAN to use the same loss for both generator and discriminator training (or the same loss differing only in sign), it's not required. In fact it's more common to use different losses for the discriminator and the generator."]]