Redes neuronales: Ejercicio interactivo

En los ejercicios interactivos que aparecen a continuación, aplicarás lo que aprendiste para entrenar un de una red neuronal prealimentada para que se ajuste a datos no lineales.

Ejercicio

En los Ejercicios de combinación de atributos En el módulo Datos categóricos, construiste manualmente combinaciones de atributos para ajustar datos no lineales. Ahora verás si puedes crear una red neuronal que pueda aprender automáticamente cómo ajustar datos no lineales durante el entrenamiento.

Tu tarea: Configura una red neuronal que pueda separar los puntos anaranjados de los puntos azules del diagrama de abajo, con lo cual se obtiene una pérdida inferior a 0.2 en ambos los datos de entrenamiento y prueba.

Instructions:

En el widget interactivo a continuación:

  1. Modifica los hiperparámetros de la red neuronal experimentando con algunas de los siguientes parámetros de configuración:
    • Agregar o quitar capas ocultas haciendo clic en los botones + y - en la a la izquierda del encabezado HIDDEN LAYERS en el diagrama de red.
    • Agrega o quita neuronas de una capa oculta con un clic en + y -. botones sobre una columna de capa oculta.
    • Elige un valor nuevo en Tasa de aprendizaje para cambiar la tasa de aprendizaje. desplegable arriba del diagrama.
    • Cambia la función de activación eligiendo un nuevo valor de la Menú desplegable Activación que se encuentra arriba del diagrama.
  2. Haga clic en el botón Reproducir (▶️) arriba del diagrama para entrenar la red neuronal con los parámetros especificados.
  3. Observar la visualización del modelo ajustando los datos como entrenamiento avanza, así como la Pérdida de prueba y Valores pérdida de entrenamiento en la sección Resultado (Output).
  4. Si el modelo no logra una pérdida inferior a 0.2 en los datos de prueba y entrenamiento, haz clic en Restablecer y repite los pasos 1 a 3 con un conjunto diferente de parámetros de configuración. configuración. Repite este proceso hasta que logres los resultados preferidos.

Haz clic aquí para ver nuestra solución

Logramos una pérdida de prueba y entrenamiento por debajo de 0.2 de la siguiente manera:

  • Agregar 1 capa oculta que contiene 3 neuronas
  • Elegir una tasa de aprendizaje de 0.01.
  • Elección de una función de activación de ReLU.