2.4. Свойства энтропии сообщений
1. Энтропия есть величина вещественная, ограниченная, не отрицательная, непрерывная на интервале 0 p 1.
не может быть положительным, а - отрицательным.
2. Энтропия максимальна для равновероятных событий.
3. Энтропия для детерминированных событий равна нулю.
4. Энтропия системы двух альтернативных событий изменяется от 0 до 1.
5. Энтропия численно совпадает со средним количеством информации, но понятия принципиально различны, так как :
H(x) - выражает среднюю неопределенность состояния источника и является его объективной характеристикой, она может быть вычислена априорно, т. е. до получения сообщения при наличии статистики сообщений.
I(x)- определяется апостериорно, т. е. после получения сообщения. С получением информации о состоянии системы энтропия снижается.
6. Сравнительно маловероятные исходы часто без большой ошибки можно опустить.
Энтропия сложных событий Условная энтропия.
Пусть и - два независимых опыта.
Очевидно, что неопределенность опыта больше неопределенности каждого из опытов и , т.к. здесь осуществляется сразу оба опыта, каждый из которых может иметь разные исходы.
Правило сложения энтропии.
(*) док-во на стр. 88-89
Предположим, что опыты и не независимы (например, последовательное извлечение шаров из ящика). В данном случае мы не можем ожидать, что выполнится (*), т.к. в случае когда результат второго опыта полностью определяется исходом первого (условная вероятностья0. Тогда имеем, что
док-во на стр. 90-91
- условная энтропия.
Об условной энтропии говорят, когда с приходом одного символа распределение вероятности последующих символов меняется.
Очень существенно, что во всех случаях условная энтропия заключается в пределах
где - безусловная энтропия,
т.е. предварительное выполнение опыта может лишь уменьшить степень
неопределенности , но никак не увеличить.
Аналогично
В качестве меры неопределенности используется дифференциальный закон распределения, получивший название дифференциальная энтропия.
x - непрерывная аналоговая величина.
Свойства дифференциальной энтропии.
1. Дифференциальная энтропия является относительной мерой неопределенности. Ее значение зависит от масштаба случайной величины x, а следовательно, и от выбора единицы ее измерения. Дифференциальная энтропия может принимать положительные, отрицательные и нулевые значения.
2. Дифференциальная энтропия не зависит от конкретных значений случайной величины x и, в частности, от изменения всех ее значений на постоянные.
- Тема 1. Предмет и методы теории информации и кодирования
- 1.1. Введение
- 1.2. Основные понятия и определения
- 1.3. Системы передачи информации
- Тема 2. Математическая теория информации
- 2.1. Количество информации, и ее мера
- 2.2. Свойства количества информации
- 2.3. Энтропия информации
- 5.2. График энтропии для двух альтернативных событий
- 2.4. Свойства энтропии сообщений
- 2.5. Безусловная энтропия и ее свойства
- 2.6. Условная энтропия.
- 2.5. Энтропия объединения
- Энтропия объединения (совместная энтропия) находится при помощи матрицы ( табл.3) путем суммирования по строкам или столбцам всех вероятностей вида
- Уяснению взаимосвязи между рассмотренными видами энтропий дискретных систем способствует их графическое изображение.
- Тема 3. Основы теории кодирования
- 3.1.Основные понятия и определения
- 3.2. Классификация кодов
- 3.3. Способы представления кодов
- Тема 4. Каналы связи
- 4.1. Каналы связи, их классификация и характеристики
- Пропускная способность дискретного канала связи
- Дискретный канал связи без помех
- Дискретный канал связи с помехами
- Пример. По каналу связи передаются сообщения, вероятности которых соответственно равны:
- Пропускная способность бинарного, симметричного канала
- Избыточность сообщений
- Тема 5. Оптимальное кодирование
- 5.1. Основные понятия и определения
- 5.2. Код Шеннона-Фано
- 5.3. Код Хаффмена
- Тема 6. Помехоустойчивое кодирование
- 6.1. Общие положения
- 6.2. Обнаруживающие коды
- Тема 7. Корректирующие коды
- 7.1. Основные понятия
- 7.2 Линейные групповые коды
- 7.3. Код хэмминга
- Тема 8. Циклические коды
- 8.1. Операции над циклическими кодами
- 8.2. Циклические коды, исправляющие одиночную ошибку
- Если задана длина кодовой комбинации, то число контрольных разрядов определяем по формуле
- Так как частное q(X) имеет такую же степень, как и кодовая комбинация g(X) , то q(X) является кодовой комбинацией того же k - значного кода.
- 8.3. Матричная запись циклического кода
- 8.4. Циклические коды, обнаруживающие трехкратные ошибки
- Тема 9. Коды боуза-чоудхури- хоквингема
- Сигнальные символы это вспомогательные данные, облегчающие декодирование: служебные сигналы, сигналы синхронизации и т. Д.
- Тема 10. Введение в криптологию
- 0 1 2 3 4 5 6 7 8 9 25 Ключ
- 4 7 9 2 3 5 1 6 8 Ключ
- Функция дискретного логарифма обратная