Myvideo

Guest

Login

LLM. Валентин Мамедов | Под Капотом

Uploaded By: Myvideo
3 views
0
0 votes
0

#largelanguagemodels #llm #deeplearning #career #nlp #ai Совсем скоро мы запустим курс по LLM! Записывайтесь в лист ожидания: Мы сообщим о старте и подарим скидку на курс. Мы приглашаем в подкаст экспертов из различных областей, чтобы понять, как работают сложные системы изнутри. В этом выпуске мы говорили с Валей Мамедовым, инженером из SberDevices, про LLM. Телеграм Вали: @vltnmmdv. Ещё мы упоминали: Канал Янника: Ollama: RQKW: Floating points visualized: @rreusser/half-precision-floating-point-visualized 00:00:00 | Вступление 00:00:20 | Как Валя попал в мир LLM 00:09:05 | Переход от задач с небольшими требованиями к обучению гигантов 00:11:25 | Разделение обязанностей в LLM-командах 00:12:55 | Про ускорение 00:14:55 | Flash Attention 00:17:45 | Memory wall и «простаивающие» видеокарты 00:18:57 | За счёт чего LLM можно запустить на макбуке, если для тренировки нужны датацентры. Этапы тренировки LLM 00:38:15 | Чем процесс вывода в прод LLM отличается от «обычных» ML-процессов 00:40:55 | Про датасеты. Берём все данные и закидываем или тщательно выверяем 00:44:15 | Кризис данных 00:45:55 | Качество vs количество данных 00:48:20 | Насколько качественно решаются задачи и можно ли отправить модель в свободное плавание 00:50:36 | Концептуальные для качества LLM 00:51:34 | Как сделать, чтоб модель не советовала плохого 00:53:20 | Open Source vs коммерческие модели 00:55:36 | Почему ChatGPT так долго лучше всех 00:57:14 | Облачные модели vs «карманные» 00:59:50 | Чем пользуется Валя 01:01:50 | Модель «под себя» vs модель, которая всё и сразу 01:04:12 | Огромный контекст vs RAG 01:07:23 | Как оценивать качество LLM. Бенчмарки 01:14:15 | Трансформеры с нами навсегда или стоит ждать новых архитектур

Share with your friends

Link:

Embed:

Video Size:

Custom size:

x

Add to Playlist:

Favorites
My Playlist
Watch Later