Второе занятие на курсе «Нейронные сети и их применение в научных исследованиях» для группы НС262 шестого потока обучения. Преподаватель: Любовь Антюфриева Дата: 00:00 Заставка 00:42 Линейная регрессия 01:29 Модель и ее параметры 02:42 Функция потерь 03:38 Поиск локального минимума 04:23 Метод наименьших квадратов 06:37 Метрики регрессии 08:08 Модель линейной регрессии из библиотеки scikit-learn 09:48 Метод градиентного спуска 10:50 Градиент 13:26 Идея градиентного спуска 18:32 Выбор скорости обучения 26:16 Единый подход к учету смещения 28:44 Необходимость нормализации 32:40 Cтохастический градиентный спуск 35:31 Классификация 35:54 Hinge loss 38:51 1D классификация 39:40 Maximum Margin Classifier 40:22 2D классификация 41:01 SVM: Hard and Soft Margin Classifier 49:45 3D классификация 49:54 Многоклассовая классификация 55:59 Обобщенные линейные модели 56:15 Полиномиальная модель 58:13 Kernel SVM 01:08:13 Практические особенности работы с линейными моделями 01:08:23 Нормализация данных 01:14:34 Проблема корреляции признаков в случае линейных моделей 01:17:35 Регуляризация 01:28:51 Вероятностный подход в задаче классификации 01:29:07 Наивный Байесовский классификатор 01:32:44 Кросс-энтропия как общая функция потерь для задач классификации 01:32:49 Переход к вероятностям 01:39:26 Cross-entropy 01:45:21 Расчет функции потерь Материалы лекции: Открыть в Colab: Открыть в HTML-формате:
Hide player controls
Hide resume playing