Пример. По каналу связи передаются сообщения, вероятности которых соответственно равны:
p(x1)=0,1; p(x2)=0,2; p(x3)=0,3; p(x4)=0,4.
Канальная матрица, определяющая потери информации в канале связи имеет вид:
.
Определить:
Энтропию источника информации- H(X).
Безусловную энтропию приемника информации- H(Y).
3. Общую условную энтропию- H(Y/X).
Скорость передачи информации, если время передачи одного символа первичного алфавита = 0,1мс.
Определить потери информации в канале связи при передаче 500 символов алфавита.
Среднее количество принятой информации.
Пропускную способность канала связи.
Решение:
Энтропия источника сообщений равна
Вероятности появления символов на входе приемника
Проверка:
Энтропия приемника информации равна
Общая условная энтропия равна
Скорость передачи информации равна:
=(1,85-0,132)/0,0001=17,18 Кбит/с.
Потери информации в канале связи при передаче 500 символов алфавита равны:
5000,132=66 бит.
Среднее количество принятой информации равно:
=500(1,85-0,132)=859 бит.
Пропускная способность канала связи
(2-0,132)/0,0001=18,68 Кбит/с.
Таким образом, пропускная способность канала связи полностью определяется количеством качественных признаков , скоростью передачи символов и вероятностью ложного приема
Основная теорема Шеннона о кодировании для дискретного канала с помехами: Для дискретного канала с помехами существует такой способ кодирования, который позволяет осуществлять безошибочную передачу информации, если производительность источника ниже пропускной способности.
1. Для любой линии связи, при условии , существует такой способ кодирования, чтобы вероятность ошибки в определении каждой переданной буквы оказалась меньше любого заранее заданного . Разумеется, что код будет зависеть от , и, чем меньше , тем сложнее код.
2. Не существует способа кодирования, позволяющего вести передачу информации со сколь угодно малой вероятностью ошибки, если производительность источника сообщений больше пропускной способности.
При доказательстве теоремы находят среднюю вероятность ошибки по всем возможным способам кодирования и показывают, что она может быть сколь угодно малой. При этом существует хотя бы один способ кодирования, для которого вероятность ошибки меньше средней.
Теорема опровергает казавшееся интуитивно правильным представление о том, что достижение сколь угодно малой вероятности ошибки в случае передачи информации по каналу связи с помехами возможно лишь при введении большей избыточности, то есть при уменьшении скорости передачи до нуля. Т.е. влияние помех может быть сведено к нулю не за счет уменьшения скорости передачи информации, а за счет усложнения кодеров и декодеров.
Следует отметить, что при любой конечной скорости передачи информации, вплоть до пропускной способности, сколь угодно малая вероятность ошибки достигается лишь при безграничном увеличении длительности кодируемых последовательностей. Таким образом, безошибочная передача возможна при помехах лишь теоретически.
На практике степень достоверности и эффективности ограничивается двумя факторами: размерами и стоимостью аппаратуры кодирования и декодирования и временем задержки передаваемого сообщения.
- Тема 1. Предмет и методы теории информации и кодирования
- 1.1. Введение
- 1.2. Основные понятия и определения
- 1.3. Системы передачи информации
- Тема 2. Математическая теория информации
- 2.1. Количество информации, и ее мера
- 2.2. Свойства количества информации
- 2.3. Энтропия информации
- 5.2. График энтропии для двух альтернативных событий
- 2.4. Свойства энтропии сообщений
- 2.5. Безусловная энтропия и ее свойства
- 2.6. Условная энтропия.
- 2.5. Энтропия объединения
- Энтропия объединения (совместная энтропия) находится при помощи матрицы ( табл.3) путем суммирования по строкам или столбцам всех вероятностей вида
- Уяснению взаимосвязи между рассмотренными видами энтропий дискретных систем способствует их графическое изображение.
- Тема 3. Основы теории кодирования
- 3.1.Основные понятия и определения
- 3.2. Классификация кодов
- 3.3. Способы представления кодов
- Тема 4. Каналы связи
- 4.1. Каналы связи, их классификация и характеристики
- Пропускная способность дискретного канала связи
- Дискретный канал связи без помех
- Дискретный канал связи с помехами
- Пример. По каналу связи передаются сообщения, вероятности которых соответственно равны:
- Пропускная способность бинарного, симметричного канала
- Избыточность сообщений
- Тема 5. Оптимальное кодирование
- 5.1. Основные понятия и определения
- 5.2. Код Шеннона-Фано
- 5.3. Код Хаффмена
- Тема 6. Помехоустойчивое кодирование
- 6.1. Общие положения
- 6.2. Обнаруживающие коды
- Тема 7. Корректирующие коды
- 7.1. Основные понятия
- 7.2 Линейные групповые коды
- 7.3. Код хэмминга
- Тема 8. Циклические коды
- 8.1. Операции над циклическими кодами
- 8.2. Циклические коды, исправляющие одиночную ошибку
- Если задана длина кодовой комбинации, то число контрольных разрядов определяем по формуле
- Так как частное q(X) имеет такую же степень, как и кодовая комбинация g(X) , то q(X) является кодовой комбинацией того же k - значного кода.
- 8.3. Матричная запись циклического кода
- 8.4. Циклические коды, обнаруживающие трехкратные ошибки
- Тема 9. Коды боуза-чоудхури- хоквингема
- Сигнальные символы это вспомогательные данные, облегчающие декодирование: служебные сигналы, сигналы синхронизации и т. Д.
- Тема 10. Введение в криптологию
- 0 1 2 3 4 5 6 7 8 9 25 Ключ
- 4 7 9 2 3 5 1 6 8 Ключ
- Функция дискретного логарифма обратная