Даниил Гаврилов, лид направления NLP в Tinkoff Research, встретился за разговорами с ребятами из направления RecSys Центра технологий искусственного интеллекта Тинькофф. Гости этого выпуска: — Олег Лашинин, ведущий исследователь-разработчик направления; — Денис Красильников, исследователь-разработчик. Поговорили про рекомендательные системы в Тинькофф и не только: что общего между академическим и прикладным RecSys, про светлое будущее DL и про многое, многое другое. В общем, присаживайтесь поудобнее, мы начинаем! 0:00 Интро 00:50 RecSys в Тинькофф — это о чем? 0:02:45 Какой результат это все дает, на чем фокусируются студенты? 0:06:59 Про статьи и задачи, с которыми заявлялись на научные конференции 0:08:47 DL в RecSys — светлое будущее или реальность? 0:11:55 Кто ведет за собой RecSys? 0:14:30 Кто еще вкладывается в RecSys 0:16:13 Про видео- и аудиорекомендации 0:19:59 Реально ли настроить идеальные ленты рекомендаций? 0:29:11 Как живет академический RecSys 0:33:01 Рассуждения про foundation model 0:37:21 Как принять тот факт, что без текстовых описаний это все не работает (торг) 0:41:25 И снова возвращаемся к foundation model 0:44:02 Где будущее RecSys? 0:45:05 Про исследование студентов с ChatGPT по рекомендации книг, музыки и фильмов* 0:48:30 Если модель обучается на уже предсказанных данных — это плохо? 0:51:20 NLP задает тренды? 0:51:50 LLM в RecSys — прогнозы 0:53:38 Про веру в RL 0:56:29 Правда ли, что мало кто верит в RL RecSys? 1:00:00 «Многорукие бандиты» 1:01:01 Про будущее 1:05:48 Про важность близости к продукту 1:06:33 Про офлайн-метрики 1:07:04 Качество не равно «работает лучше» 1:09:03 В рекомендациях важны бизнес-правила 1:09:56 Как удается совмещать эксперименты Research и RnD? 1:11:05 Про боли закрытого кода 1:13:11 Следующие научные конференции и немного про прошедшие * В качестве пользователей в эксперименте выступили сами студенты, а также их друзья и однокурсники. Цель эксперимента — понять, как ChatGPT справляется с задачей рекомендаций книг, фильмов и музыки, когда у нее нет никаких ограничений на айтемы (пример ограничения — выбери 10 лучших из 100 треков, которые мы дали). Ссылки на статьи, которые упоминались в выпуске: * Are We Really Making Much Progress? A Worrying Analysis of Recent Neural Recommendation Approaches * EASE * ALS * DSSM * VAE * LambdaRank * SASRec * BERT4Rec ) * Про feedback loop от Netflix Наш телеграм: Дайджесты, статьи и анонсы митапов: Жизнь команда изнутри и вакансии по направлениям: Блог на Хабре: #ai #ml #тинькофф #recsys
Hide player controls
Hide resume playing