Применяем Tensorflow для задачи поиска оптимальных параметров, минимизируя функцию потерь различным алгоритмами градиентного спуска с оптимизаторами: Метод моментов (моменты Нестерова), Adam, RMSProp, Adagrad, Adadelta. Рассматривается принцип реализации стохастического градиентного спуска SGD (Stochastic Gradient Descent). Телеграм-канал: Инфо-сайт: Tensorflow: Градиентный спуск: Курс по нейронным сетям:
Hide player controls
Hide resume playing