Тема 2.5. Пропускная способность канала связи
В любой системе связи через канал передаётся информация. Её скорость передачи зависит не только от самого канала, но и от свойств подаваемого на его вход сигнала и поэтому не может характеризовать канал как средство передачи информации. Найдём способ оценки способности канала передавать информацию. Для каждого источника количество информации, переданной по каналу принимает своё значение.
Максимальное количество переданной информации, взятое по всевозможным источникам входного сигнала, характеризует сам канал и называется пропускной способностью канала в расчёте на один символ:
бит/ симв.
(где максимизация производится по всем многомерным распределениям вероятностей Р(А))
Можно также определить пропускную способность С канала в расчёте на единицу времени.
(2.25)
Вычислим пропускную способность симметричного канала без памяти
(2.26)
Величина в данном случае легко вычисляется, поскольку условная (переходная) вероятностьпринимает только два значения:, еслии (1-Р), если.
Первое из этих значений возникает с вероятностью Р, а второе – с вероятностью (1-Р). К тому же, поскольку рассматривается канал без памяти, результаты приёма отдельных символов независимы друг от друга.
Поэтому
(2.27)
Следовательно Н(В/А) не зависит от распределения вероятности в ансамбле А, а определяется только переходными вероятностями канала. Это свойство сохраняется для всех моделей с аддитивным шумом.
Подставив (2.27) в (2.26) получим:
(2.28)
Поскольку в правой части только член Н(В) зависит от распределения вероятности Р(А), то максимизировать необходимо именно его.
Максимальное значение Н(В) равно log m и реализуется оно тогда, когда все принятые символы равновероятны и независимы друг от друга. Легко убедиться, что это условие удовлетворяется, если входные символы равновероятны и независимы, поскольку в этом случае
При этом и
(2.29)
Отсюда пропускная способность в расчёте на единицу времени
(2.30)
Для двоичного симметричного канала (m=2) пропускная способность в двоичных единицах в единицу времени
(2.31)
Зависимость от Р согласно формуле (2.31)
При Р=1/2 пропускная способность двоичного канала С=0, поскольку при такой вероятности ошибки последовательность выходных двоичных символов можно получить совсем не передавая сигналы по каналу, а выбирая их наугад (например, по результатам бросания монеты), то есть при Р=1/2 последовательности на выходе и входе канала независимы. Случай С=0 называется обрывом канала. То, что пропускная способность при P=1 в двоичном канале такая же, как при Р=0 (канал без шумов), объясняется тем, что при Р=1 достаточно все выходные символы инвертировать (то есть заменить 0 на 1 и 1 на 0), чтобы правильно восстановить входной сигнал.
Пропускная способность непрерывного канала вычисляется аналогично. Пусть, например, канал имеет ограниченную полосу пропускания шириной F. Тогда сигналы U(t) и Z(t) соответственно на входе и выходе канала по теореме. Котельникова определяются своими отсчётами, взятыми через интервал 1/(2F), и поэтому информация, проходящая по каналу за некоторое время Т, равна, сумме количества информации, переданной за каждый такой отсчёт. Пропускная способность канала на один такой отсчёт:
(2.32)
Здесь U и Z – случайные величины – сечения процессов U(t) и Z(t) на входе и выходе канала соответственно и максимум берётся по всем допустимым входным сигналам, то есть по всем распределениям U.
Пропускная способность С определяется как сумма значений , взятая по всем отсчётам за секунду. При этом разумеется дифференциальные энтропии в (2.35) должны вычисляться с учётом вероятностных связей между отсчётами.
Вычислим пропускную способность непрерывного канала без памяти с аддитивным белым гауссовским шумом, имеющим полосу пропускания шириной F, если средняя мощность сигнала . Мощность (дисперсию) шума в полосеF обозначим . Отсчёты выходного и входного сигналов, а также шумаN связаны равенством:
Z=U+N (2.33)
Так как N имеет нормальное распределение с нулевым математическим ожиданием, то и условная плотность вероятности при фиксированномU будет так же нормальной – с математическим ожиданием U и дисперсией .
Пропускная способность на один отсчёт определятся по формуле (2.32):
Согласно (2.24) условная дифференциальная энтропия h(Z/U) нормального распределения не зависит от математического ожидания и равна. Поэтому для нахожденияследует найти такую плотность распределения , при которой максимизируетсяh(Z). Из (2.33) учитывая, что U и N независимые случайные величины имеем для дисперсий
Таким образом, дисперсиия фиксирована, так какизаданы. Как известно, при фиксированной дисперсии максимальная дифференциальная энтропия обеспечивается нормальным распределением. Из (2.33) видно, что при нормальном одномерном распределенииU распределение Z будет так же нормальным и, следовательно, обеспечивается максимум дифференциальной энтропии (2.24).
(2.34)
Откуда
(2.35)
Переходя к пропускной способности С в расчёте на секунду, заметим, что информация, переданная за несколько отсчётов, максимальна в том случае, когда отсчёты сигналов независимы. Этого можно достичь, если сигнал U(t) выбрать так, чтобы его спектральная плотность была равномерной в полосе F. Отсчёты разделённые интервалами, кратными 1/(2F), взаимно некоррелированы, а для гауссовских величин некоррелированность означает независимость. Поэтому пропускную способность С (за секунду) можно найти, сложив пропускные способности (2.35) для 2F независимых отсчётов:
(2.36)
Она реализуется, если U(t) – гауссовский процесс с равномерной спектральной плотностью в полосе частот F (квазибелый шум).
Из (2.36) видно, что если бы мощность сигнала не была ограничена, то пропускная способность была бы сколь угодно большой. Пропускная способность равна нулю, если отношение сигнал-шумв канале равно нулю. С ростом этого отношения пропускная способность увеличивается неограниченно, однако медленно, вследствие логарифмической зависимости.
Соотношение (2.36) называется формулой Шеннона. Эта формула имеет важное значение в теории информации, так как определяет зависимость пропускной способности рассматриваемого непрерывного канала от таких его технических характеристик, как ширина полосы пропускания и отношение сигнал шум. Формула Шеннона указывает на возможность обмена полосы пропускания на мощность сигнала и наоборот. Однако поскольку С зависит от F линейно, а от – по логарифмическому закону, компенсировать возможное сокращение полосы пропускания увеличением мощности сигнала, как правило, не выгодно. Более эффективным является обратный обмен мощности сигнала на полосу пропускания.
Максимальный объём информации, которую можно в среднем передать по непрерывному каналу за время ,
Для гауссовского канала
(2.37)
Заметим, что при Выражение (2.37) совпадает с характеристикой названной ёмкостью (объёмом) канала.
- Системы электрической связи. Общие сведения о системах электросвязи. Основные понятия и определения
- Часть 1
- Раздел 1. Элементы общей теории сигналов
- 1.1 Классификация сигналов
- 1.2. Некоторые элементы функционального анализа сигналов
- 1.3 Основы теории ортогональных сигналов
- Раздел 2. Спектральные представления сигналов
- 2.1. Понятие о спектре периодических и непериодических сигналов
- 2.2 Спектральное представление периодических сигналов
- 2.3 Спектральное представление непериодических сигналов
- 2.4 Теоремы о спектрах
- 2.5 Спектральные представления сигналов с использованием негармонических функций
- Раздел 3. Сигналы с ограниченным спектром
- 3.1. Некоторые математические модели сигналов с ограниченным спектром
- 3.2 Теорема Котельникова
- 3.3. Узкополосные сигналы
- 3.4. Аналитический сигнал и преобразования Гильберта
- Раздел 4. Основы корреляционного анализа сигналов
- 4.1. Взаимная спектральная плотность сигналов. Энергетический спектр
- 4.2. Автокорреляционная функция сигналов
- 4.3. Акф дискретного сигнала
- 4.4. Взаимокорреляционная функция двух сигналов
- Раздел 5. Модулированные сигналы
- 5.1. Сигналы с амплитудной модуляцией
- 5.2 Сигналы с угловой модуляцией
- 5.3. Дискретные формы угловой модуляции
- 5.4 Сигналы с импульсной модуляцией
- Раздел 6. Основы теории случайных процессов
- 6.1. Случайные процессы. Основные понятия и определения
- 6.2. Характеристики случайных процессов
- 6.3. Моментные функции случайных процессов
- 6.4. Свойства случайных процессов
- 6.5. Функция корреляции двух случайных процессов
- 6.6. Измерение характеристик случайных процессов
- 6.7. Спектральное представление стационарных случайных процессов. Теорема Винера-Хинчина
- 6.8 Типовые модели случайных сигналов
- 6.9 Узкополосные случайные сигналы
- Раздел 7. Основные элементы цифровой обработки сигналов
- 7.1. Дискретное преобразование Фурье
- 7.2. Быстрое преобразование Фурье
- 7.3 Z-преобразование
- Раздел 1.Каналы электросвязи
- Тема1.1 Общие сведения о каналах электросвязи и их классификация
- 1.2 Математические модели каналов электросвязи
- 1.2.1 Математические модели непрерывных каналов связи
- 1.2.2 Математические модели дискретных каналов связи
- Раздел 2 Основные положения теории передачи информации
- 2.1 Информационные параметры сообщений и сигналов
- 2.2 Взаимная информация
- Эффективное кодирование дискретных сообщений
- Тема 2.4. Информация в непрерывных сигналах
- Тема 2.5. Пропускная способность канала связи
- Тема 2.6. Теорема к. Шеннона
- Тема 2.7. Информация в непрерывных сообщениях. Эпсилон-энтропия
- Раздел 3. Оптимальный приём дискретных сообщений
- Тема 3.1. Постановка задачи оптимального приёма дискретных сообщений как статистической задачи. Понятие помехоустойчивости
- 3.2. Элементы теории решений
- 3.3. Критерии качества оптимального приёмника
- 3.4 Алгоритм оптимального приёма при полностью известных сигналах. Когерентный приём
- 3.5 Структурное построение оптимального приёмника
- 3.6 Реализация алгоритма оптимального приёма на основе согласованных фильтров. Свойства согласованного фильтра
- 3.8 Потенциальная помехоустойчивость систем с различными видами манипуляции
- 3.9 Приём сигналов с неопределённой фазой (некогерентный приём)