Математика - - Информационная энтропия конспект от YandexGPT 00:02 Введение в энтропию • Обсуждение энтропии и ее связи с машинным обучением. • Объяснение формулы энтропии и ее применения в теории передачи сигналов. 07:35 Пример кодирования • Пример кодирования букв алфавита с использованием двоичного дерева. • Обсуждение оптимальной длины закодированного сообщения и средней длины сообщения из одного символа. 13:16 Энтропия и информация • Определение энтропии как меры неопределенности случайной величины. • Обсуждение связи энтропии с количеством бит, необходимых для передачи информации о случайной величине. • Пример использования энтропии для определения количества бит, необходимых для передачи сообщения из 100 букв. 20:13 Обсуждение энтропии и информации • В видео обсуждается, что энтропия - это мера неопределенности случайной величины, и чем случайнее величина, тем больше информации нужно для ее определения. • Для передачи сообщения, чтобы понять, что случилось с иксом, нужно больше информации, чем для передачи сообщения о том, что случилось с иксом. 30:08 Аксиоматическое определение энтропии • В видео дается определение энтропии как меры неопределенности случайной величины. • Энтропия должна быть непрерывной, симметричной функцией своих аргументов и должна быть симметричной относительно перестановки аргументов. • Энтропия также должна возрастать при добавлении нового значения. 37:31 Примеры и свойства энтропии • В видео приводятся примеры и свойства энтропии, такие как максимальное значение энтропии при равномерном распределении значений случайной величины и возрастание энтропии при добавлении нового значения. • Также объясняется, что энтропия может быть определена как сумма логарифмов вероятностей, обратных к ним. 41:20 Энтропия и информация • В видео объясняется понятие энтропии и информации в контексте случайного распределения. • Энтропия - это мера неопределенности, которая показывает, сколько информации необходимо для определения случайной величины. • Для определения энтропии используется логарифм по основанию 2. 56:23 Совместная энтропия • Вводится понятие совместной энтропии, которая определяется как сумма энтропий для каждой случайной величины в паре. • Это позволяет учитывать неопределенность в предсказании пары случайных величин. 01:02:16 Энтропия и носитель случайной величины • Обсуждается понятие носителя случайной величины, который определяет множество, на котором распределена случайная величина. • Это важно для понимания плотности случайной величины и ее распределения. 01:04:07 Энтропия и ее свойства • В видео объясняется, что энтропия случайной величины - это мера неопределенности, которая может быть как положительной, так и отрицательной. • Энтропия совместной случайной величины всегда неотрицательна, но может быть больше, меньше или равна энтропии каждой из составляющих. 01:14:18 Энтропия и линейная зависимость • Если одна из случайных величин линейно зависима от другой, то энтропия совместной случайной величины будет меньше, чем сумма энтропий каждой из составляющих. • Если случайные величины независимы, то энтропия совместной случайной величины будет равна сумме энтропий каждой из составляющих. Весь плейлист:
Hide player controls
Hide resume playing