logo
Ответы по информатике

1. Информатика. Понятие информации. Свойства информации. Единицы измерения информации. Синтаксическая мера информации. Семантическая мера информации. Прагматическая мера информации. Формула Шеннона.

Информация – (от латинского informatio – разъяснение) – сведения об объектах и явлениях, уменьшающие степень неполноты знаний – степень неопределенности.

Будучи объектом преобразования и использования, информация характеризуется следующими свойствами:

Компьютер работает с информацией и для измерения ее объема также имеются соответствующие единицы измерения.

Мы уже знаем, что компьютер воспринимает всю информацию через нули и единички. Бит – это минимальная единица измерения информации, соответствующая одной двоичной цифре («0» или «1»).

Байт состоит из восьми бит. Используя один байт, можно закодировать один символ из 256 возможных (256 = 28). Таким образом, один байт равен одному символу, то есть 8 битам:

1 символ = 8 битам = 1 байту.

Таблица байтов:

1 байт = 8 бит

1 Кб (1 Килобайт) =  210 байт = 2*2*2*2*2*2*2*2*2*2 байт =

= 1024 байт (примерно 1 тысяча байт – 103 байт)

1 Мб (1 Мегабайт) = 220 байт = 1024 килобайт (примерно 1 миллион байт – 106 байт)

1 Гб (1 Гигабайт) =   230 байт = 1024 мегабайт (примерно 1 миллиард байт – 109 байт)

1 Тб (1 Терабайт) =    240 байт = 1024 гигабайт (примерно 1012 байт). Терабайт иногда называют тонна.

1 Пб (1 Петабайт) =   250 байт = 1024 терабайт (примерно 1015 байт).

1 Эксабайт =              260 байт = 1024 петабайт (примерно 1018 байт).

1 Зеттабайт =            270 байт = 1024 эксабайт (примерно 1021 байт).

1 Йоттабайт =           280 байт = 1024 зеттабайт (примерно 1024 байт).

Флешки бывают 1 Гб, 2 Гб, 4 Гб, 8 Гб, 16 Гб, 32 Гб и 64 Гб.

CD-диски могут вмещать 650 Мб, 700 Мб, 800 Мб и 900 Мб.

DVD-диски рассчитаны на большее количество информации: 4.7 Гб, 8.5 Гб, 9.4 Гб и 17 Гб.

Формулу для вычисления количества информации в случае различных вероятностей событий предложил К. Шеннон в 1948 году. В этом случае количество информации определяется по формуле:

где I - количество информации; N - количество возможных событий; рi - вероятность i-го события.