Introducción
El Descenso de Gradiente Estocástico (Stochastic Gradient Descent - SGD) es un algoritmo de optimización popular utilizado en el aprendizaje automático. Es una variación del algoritmo de descenso de gradiente que utiliza un subconjunto aleatoriamente seleccionado de los datos de entrenamiento en cada iteración. Esto lo hace computacionalmente eficiente y adecuado para manejar conjuntos de datos grandes. En este laboratorio, recorreremos los pasos para implementar el SGD en Python utilizando scikit-learn.
Consejos sobre la VM
Una vez que se haya completado la inicialización de la VM, haga clic en la esquina superior izquierda para cambiar a la pestaña Cuaderno para acceder a Jupyter Notebook y practicar.
A veces, es posible que tenga que esperar unos segundos para que Jupyter Notebook termine de cargarse. La validación de operaciones no puede automatizarse debido a las limitaciones de Jupyter Notebook.
Si tiene problemas durante el aprendizaje, no dude en preguntar a Labby. Deje comentarios después de la sesión y resolveremos rápidamente el problema para usted.