logo
ТСИ / Технические средства информатизации

Раздел 2 посвящен техническим характеристикам современных компьютеров, их составу и архитектуре.

Разделы 3 – 6 посвящены устройствам ввода/вывода, хранения и обработки текстовой, числовой, аудио- и видеоинформации на различных носителях.

Раздел 7 посвящен средствам копирования и уничтожения информации на твердых носителях.

В Разделе 8 рассмотрены современные системы дистанционной передачи информации.

Учебное пособие позволит студенту самостоятельно изучать материал курса, выполнять практические задания и проверить уровень усвоения материала с помощью контрольных заданий и тестов. Применение таких пособий развивает самостоятельную деятельность в овладении новыми знаниями, продвигает обучаемого на новую ступень осознанием своих способностей и своего места в новом информационном обществе.

Раздел 1. Информация и технические средства её обработки.

Тема 1.1. Информация.

План:

  1. Определение информации. Количество информации. Единицы измерения количества информации.

  2. Способы представления информации для ввода в ЭВМ.

1. Определение информации. Количество информации. Единицы измерения количества информации.

В настоящее время наука пытается найти общие свойства и закономерности, присущие многогранному понятию информация, но пока это понятие во многом остается интуитивным и получает различные смысловые наполнения в разных отраслях человеческой деятельности:

Термин «информация» имеет корень «form» (форма), что разумно трактовать как «информирование — придание формы, вывод из состояния неопределенности, бесформенности», поэтому логично подходить к определению понятия «количество информации», исходя из того, что информацию, содержащуюся в сообщении, можно трактовать в смысле ее новизны или, иначе, уменьшения неопределенности знаний «приемника информации» об объекте.

Американский инженер Р. Хартли в 1928 г. рассматривал процесс получения информации как выбор одного сообщения из конечного заданного множества N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определял как двоичный логарифм N:

I=log2N.

Допустим, нужно угадать одно число из набора чисел от единицы до ста. По формуле Хартли можно вычислить, какое количество информации для этого требуется:

I=log2100≈6,644.

Таким образом, сообщение о верно угаданном числе содержит количество информации, приблизительно равное 6,644 единицы информации.

Другие примеры равновероятных сообщений: при бросании монеты - «выпала решка», «выпал орел»; на странице книги - «количество букв четное», «количество букв нечетное».

Существуют и другие подходы к определению количества информации. Важно помнить, что любые теоретические результаты применимы лишь к определенному кругу случаев, очерченному первоначальными допущениями.

Можно рассмотреть обратную задачу: «Какое количество различных двоичных чисел N можно записать с помощью I двоичных разрядов?»

В общем случае количество различных двоичных чисел (кодов) можно определить по формуле:

N=2I

Данная формула является очень значимой, она связывает между собой количество возможных исходов N и количество информации I (является обратной формуле Хартли).

В качестве единицы информации Клод Шеннон предложил принять один бит (англ. bit — binary digit — двоичная цифра).

Бит в теории информации — количество информации, необходимое для различения двух равновероятных сообщений («орел—решка», «чет—нечет» и т. п.).

В вычислительной технике битом называют наименьшую «порцию» памяти компьютера, необходимую для хранения одного из двух знаков 0 и 1, используемых для машинного представления данных и команд.

За единицу информации можно было бы выбрать количество информации, необходимое для различения, например, десяти равновероятных сообщений. Это будет не двоичная (бит), а десятичная (дит) единица информации.

Поскольку бит — слишком мелкая единица измерения, на практике чаще применяется более крупная единица — байт, равная восьми битам. В частности, восемь бит требуется для того, чтобы закодировать любой из 256 символов основного компьютерного кода ASCII (256 = 28).

Используются также более крупные производные единицы информации:

Килобайт (Кбайт) = 1024 байт = 210 байт;

Мегабайт (Мбайт) = 1024 Кбайт = 220 байт;

Гигабайт (Гбайт) = 1024 Мбайт = 230 байт.

В последнее время в связи с увеличением объемов обрабатываемой информации входят в употребление такие производные единицы, как:

Терабайт (Тбайт) = 1024 Гбайт = 240 байт;

Петабайт (Пбайт) = 1024 Тбайт = 250 байт;

Экзобайт = 1018 Мбайт и пр.

Для описания скорости передачи данных можно использовать термин бод. Число бод равно количеству значащих изменений сигнала (потенциала, фазы, частоты), происходящих в секунду. Первоначально бод использовался в телеграфии. Для двоичных сигналов нередко принимают, что бод равен биту в секунду, например, 1200 бод = 1200 бит/с. Однако единого мнения о правильности использования этого термина нет, особенно при высоких скоростях, где число битов в секунду не совпадает с числом бод.