Myvideo

Guest

Login

Как работает оптимизатор Adam в глубоком обучении

Uploaded By: Myvideo
1 view
0
0 votes
0

По шагам рассматривается принцип работы оптимизатора Adam в нейронных сетях. Используется фреймворк PyTorch, но TensorFlow и Keras используют похожую формулу. Важно понять две составляющие Adam: 1) Предыдущие и текущие градиенты взвешиваются. 2) Для каждого параметра используется свой коэффициент обучения, который уменьшается с каждым вызовом оптимизатора. Принцип работы оптимизатора Adam простой и вы без труда поймете как он работает.

Share with your friends

Link:

Embed:

Video Size:

Custom size:

x

Add to Playlist:

Favorites
My Playlist
Watch Later