Спикер: Никита Стародубцев, ML resident, Yandex Research ML Residency. На лекции детально обсудим проблему долгой генерации диффузионных моделей и рассмотрим одно из самых перспективных направлений для её кратного ускорения. А именно познакомимся с дистилляцией диффузионных моделей и рассмотрим такие методы как Knowledge Distillation и (Multi-boundary) Consistency Distillation. Скачать презентацию по лекции: После окончания подключайтесь к лекции 5 «ODE-free diffusion distillation» по ссылке: Материалы интенсива, которые уже прошли: Лекция 1 Introduction to diffusion models: Семинар 1 Basic diffusion implementation: Лекция 2 DPM formulation via SDE and ODE: Семинар 2 Implementing an efficient sampler: Лекция 3 Diffusion architectures. Training and sampling techniques. Text-to-image formulation: Семинар 3 Text-to-image generation: Узнать больше о Школе анализа данных можно на сайте:
Hide player controls
Hide resume playing