Myvideo

Guest

Login

Математика - - Энтропия + конспект от YandexGPT =

Uploaded By: Myvideo
2 views
0
0 votes
0

Математика - - Энтропия конспект от YandexGPT 00:02 Энтропия случайной величины • Обсуждение энтропии как меры хаоса и случайной величины. • Расчет энтропии для различных случайных величин. 10:05 Условная энтропия • Рассмотрение условной энтропии для двух случайных величин. • Вывод формулы условной энтропии и ее применение к различным ситуациям. 14:44 Репетиция собеседования • Пример использования условной энтропии на примере репетиции собеседования. • Обсуждение важности понимания сути формулы и ее вывода, а не заучивания. 17:09 Условная энтропия • Обсуждение условной энтропии и ее связи с маргинальной вероятностью и условной вероятностью. • Рассмотрение примера с условной энтропией и ее связи с иксом и игреком. 28:12 Свойства условной энтропии • Условная энтропия не отрицательна и может быть меньше либо равна обычной энтропии. • Если икс влияет на игрек, то условная энтропия уменьшается. • Условная энтропия может быть связана с совместной энтропией. 33:34 Условная энтропия • Обсуждение формулы условной энтропии и ее связи с совместной энтропией. • Условная энтропия определяется как сумма по всем возможным значениям переменной, умноженная на вероятность этого значения. 44:24 Взаимная информация • Взаимная информация - это мера неопределенности между двумя переменными. • Она определяется как разность между условной энтропией и обычной энтропией. 47:04 Формула Байеса для энтропии • Формула Байеса для энтропии выражает апостериорную энтропию через априорную и условную энтропию. • Она может быть выражена через совместную энтропию и условную энтропию. 51:37 Обсуждение энтропии и кросс-энтропии • Рассматривается ситуация с двумя случайными величинами и их вероятностями. • Обсуждается, как оптимизировать код для племени, где одна из величин встречается чаще. 01:03:38 Кросс-энтропия и ее расчет • Кросс-энтропия - это мера, которая показывает, сколько бит потребуется для передачи сообщения в среднем. • Обсуждается, как рассчитать кросс-энтропию для разных языков и распределений вероятностей. 01:06:56 Пример расчета кросс-энтропии • Пример расчета кросс-энтропии для конкретного языка и распределения вероятностей. • Результат: 2,375 бит в среднем потребуется для передачи сообщения длиной в один символ. 01:13:44 Расстояние Кульбака-Лейблера • Расстояние Кульбака-Лейблера - это метрика, которая измеряет расстояние между распределениями случайных величин. • Оно может быть использовано для оценки качества классификации или предсказания. 01:26:13 Минимизация кросс-энтропии • Минимизация кросс-энтропии в алгоритмах машинного обучения фактически минимизирует расстояние Кульбака-Лейблера между распределениями. • Это означает, что минимизация кросс-энтропии фактически минимизирует расстояние между распределениями. Весь плейлист:

Share with your friends

Link:

Embed:

Video Size:

Custom size:

x

Add to Playlist:

Favorites
My Playlist
Watch Later