Myvideo

Guest

Login

3Blue1Brown Визуализация внимания, сердце трансформера | Глава 6, Глубокое обучение

Uploaded By: Myvideo
11 views
0
0 votes
0

🎯 Загружено автоматически через бота: 🚫 Оригинал видео: 📺 Данное видео является собственностью канала 3Blue1Brown. Оно представлено в нашем сообществе исключительно в информационных, научных, образовательных или культурных целях. Наше сообщество не утверждает никаких прав на данное видео. Пожалуйста, поддержите автора, посетив его оригинальный канал: @3blue1brown. ✉️ Если у вас есть претензии к авторским правам на данное видео, пожалуйста, свяжитесь с нами по почте support@, и мы немедленно удалим его. 📃 Оригинальное описание: Демистификация самовнимания, множественных голов и перекрестного внимания. Вместо спонсорского чтения рекламы эти уроки финансируются непосредственно зрителями: Не менее ценная форма поддержки - просто поделиться видео. Другие ресурсы о трансформаторах Видеоролики Андрея Карпати Посты по теме “Трансформаторные схемы“, автор Anthropic В частности, только прочитав этот пост, я начал думать о комбинации матриц значения и выхода как о комбинированной низкоранговой карте из пространства вложения в себя, что, по крайней мере, в моем сознании, сделало все намного яснее, чем другие источники. История языковых моделей от Брит Круз, @ArtOfTheProblem Что такое языковая модель от @vcubingx Сайт с упражнениями, связанными с ML-программированием и GPT Ранняя статья о том, как направления в пространствах встраивания имеют смысл: Временные метки: 0:00 - Обзор вкраплений 1:39 - Мотивирующие примеры 4:29 - Шаблон внимания 11:08 - Маскировка 12:42 - Размер контекста 13:10 - Ценности 15:44 - Параметры подсчета 18:21 - Перекрестное внимание 19:19 - Множественные головы 22:16 - Матрица вывода 23:19 - Идти глубже 24:54 - Окончание

Share with your friends

Link:

Embed:

Video Size:

Custom size:

x

Add to Playlist:

Favorites
My Playlist
Watch Later