Myvideo

Guest

Login

#5. Строим градиентные алгоритмы оптимизации Adam, RMSProp, Adagrad, Adadelta | Tensorflow 2 уроки

Uploaded By: Myvideo
9 views
0
0 votes
0

Применяем Tensorflow для задачи поиска оптимальных параметров, минимизируя функцию потерь различным алгоритмами градиентного спуска с оптимизаторами: Метод моментов (моменты Нестерова), Adam, RMSProp, Adagrad, Adadelta. Рассматривается принцип реализации стохастического градиентного спуска SGD (Stochastic Gradient Descent). Телеграм-канал: Инфо-сайт: Tensorflow: Градиентный спуск: Курс по нейронным сетям:

Share with your friends

Link:

Embed:

Video Size:

Custom size:

x

Add to Playlist:

Favorites
My Playlist
Watch Later