Эффективное кодирование дискретных сообщений
Применим полученные результаты к проблеме кодирования дискретных сообщений. Пусть - источник последовательности элементарных сообщений (знаков) с объёмом алфавитаи производительностью. Для передачи по дискретному каналу нужно преобразовать сообщения в последовательность кодовых сигналовтак, чтобы эту кодовую последовательность можно было затем однозначно декодировать. Для этого необходимо, чтобы скорость передачи информации от источника к кодеруравнялась производительности источника,=. Но с другой стороны из предыдущего:. Следовательно, необходимым условием для кодирования являетсяили, обозначая черездлительность кодового символа, черездлительность элементарного сообщения,, или
, (2.17)
где - число кодовых символов,a - число сообщений, передаваемых в секунду.
Будем рассматривать для простоты только двоичный код, при котором алфавит состоит из символов 0 и 1. Тогдабит. Поэтому, необходимое условие сводится к тому, что:
(2.18)
Но это отношение представляет среднее число кодовых символов, приходящихся на одно элементарное сообщение. Таким образом, для возможности кодирования и однозначного декодирования сообщения необходимо, чтобы среднее число двоичных символов на сообщение было не меньше энтропии . Является ли это условие достаточным?
Одна из основных теорем теории информации утверждает, что оно “почти достаточно”. Точнее, содержание теоремы кодирования для источника заключается в том, что передавая двоичные символы со скоростью симв/с можно закодировать сообщения так, чтобы передавать их со скоростью:
(сообщений в секунду),
где - сколь угодно малая величина.
Эта теорема почти тривиальна, если источник передаёт сообщения независимо и равновероятно. В этом случае и, если ещё к тому же-целая степень двух, то.
Таким образом можно закодировать сообщения любого источника с объёмом алфавита , затрачиваядвоичных символов на элементарное сообщение. Если, однако, сообщения передаются не равновероятно, и (или) не независимо, тои возможно более экономное кодирование с затратойсимволов на сообщение. Относительная экономия символов при этом окажется равной. Таким образом, избыточность определяет достижимую степень ”сжатия сообщения”.
Рассмотрим несколько примеров.
Так, если элементарными сообщениями являются русские буквы и они передаются равновероятно и независимо, то. Каждую букву можно закодировать последовательностью из пяти двоичных символов, поскольку существует 32 такие последовательности.
Разумеется, таким же равномерным кодом можно закодировать и буквы в связном русском тексте, и именно так часто поступают на практике. Но можно обойтись значительно меньшим числом символов на букву. Для русского литературного текста и, следовательно, возможен способ эффективного кодирования (или кодирования со сжатием сообщения), при котором в среднем на букву русского текста будет затрачено немногим более 1,5 двоичных символа, то есть на 70% меньше, чем при примитивном коде.
Существует довольно много способов сжатия сообщений или сокращения избыточности текста. Так, например:”Эта фр. напис. сокращ. и тем не м. мож. надеят., что Вы пойм. её прав.” В предыдущей фразе удалось уменьшить число букв, а следовательно и символов, если её кодировать равномерным кодом почти на 40%.
Другая возможность заключается в том, чтобы кодировать не отдельные буквы, а целые слова.
Дальнейшее сжатие сообщений возможно путём применения неравномерного кода, если более короткие последовательности используются для более частых букв (слов) и более длинные – для более редких. Заметим, что эта идея неравномерного кодирования впервые нашла применение в телеграфном коде Морзе, в котором наиболее короткие комбинации использованы для часто встречающихся букв (е, и, т, с, а).
Применение неравномерного кода позволяет снизить избыточность, вызванную неравной вероятностью между сообщениями.
Разработано много методов эффективного кодирования для различных источников. Задача эффективного кодирования наиболее актуальна не для передачи текста, а для других источников со значительно большей избыточностью. К ним относятся, например, телевизионные передачи (промышленное телевидение), некоторые телеметрические системы, в которых возможно сжатие в десятки раз, фототелеграфия.
- Системы электрической связи. Общие сведения о системах электросвязи. Основные понятия и определения
- Часть 1
- Раздел 1. Элементы общей теории сигналов
- 1.1 Классификация сигналов
- 1.2. Некоторые элементы функционального анализа сигналов
- 1.3 Основы теории ортогональных сигналов
- Раздел 2. Спектральные представления сигналов
- 2.1. Понятие о спектре периодических и непериодических сигналов
- 2.2 Спектральное представление периодических сигналов
- 2.3 Спектральное представление непериодических сигналов
- 2.4 Теоремы о спектрах
- 2.5 Спектральные представления сигналов с использованием негармонических функций
- Раздел 3. Сигналы с ограниченным спектром
- 3.1. Некоторые математические модели сигналов с ограниченным спектром
- 3.2 Теорема Котельникова
- 3.3. Узкополосные сигналы
- 3.4. Аналитический сигнал и преобразования Гильберта
- Раздел 4. Основы корреляционного анализа сигналов
- 4.1. Взаимная спектральная плотность сигналов. Энергетический спектр
- 4.2. Автокорреляционная функция сигналов
- 4.3. Акф дискретного сигнала
- 4.4. Взаимокорреляционная функция двух сигналов
- Раздел 5. Модулированные сигналы
- 5.1. Сигналы с амплитудной модуляцией
- 5.2 Сигналы с угловой модуляцией
- 5.3. Дискретные формы угловой модуляции
- 5.4 Сигналы с импульсной модуляцией
- Раздел 6. Основы теории случайных процессов
- 6.1. Случайные процессы. Основные понятия и определения
- 6.2. Характеристики случайных процессов
- 6.3. Моментные функции случайных процессов
- 6.4. Свойства случайных процессов
- 6.5. Функция корреляции двух случайных процессов
- 6.6. Измерение характеристик случайных процессов
- 6.7. Спектральное представление стационарных случайных процессов. Теорема Винера-Хинчина
- 6.8 Типовые модели случайных сигналов
- 6.9 Узкополосные случайные сигналы
- Раздел 7. Основные элементы цифровой обработки сигналов
- 7.1. Дискретное преобразование Фурье
- 7.2. Быстрое преобразование Фурье
- 7.3 Z-преобразование
- Раздел 1.Каналы электросвязи
- Тема1.1 Общие сведения о каналах электросвязи и их классификация
- 1.2 Математические модели каналов электросвязи
- 1.2.1 Математические модели непрерывных каналов связи
- 1.2.2 Математические модели дискретных каналов связи
- Раздел 2 Основные положения теории передачи информации
- 2.1 Информационные параметры сообщений и сигналов
- 2.2 Взаимная информация
- Эффективное кодирование дискретных сообщений
- Тема 2.4. Информация в непрерывных сигналах
- Тема 2.5. Пропускная способность канала связи
- Тема 2.6. Теорема к. Шеннона
- Тема 2.7. Информация в непрерывных сообщениях. Эпсилон-энтропия
- Раздел 3. Оптимальный приём дискретных сообщений
- Тема 3.1. Постановка задачи оптимального приёма дискретных сообщений как статистической задачи. Понятие помехоустойчивости
- 3.2. Элементы теории решений
- 3.3. Критерии качества оптимального приёмника
- 3.4 Алгоритм оптимального приёма при полностью известных сигналах. Когерентный приём
- 3.5 Структурное построение оптимального приёмника
- 3.6 Реализация алгоритма оптимального приёма на основе согласованных фильтров. Свойства согласованного фильтра
- 3.8 Потенциальная помехоустойчивость систем с различными видами манипуляции
- 3.9 Приём сигналов с неопределённой фазой (некогерентный приём)