Измерение количества информации
Мироздание – это сейф, для которого нужно отыскать шифр, но этот шифр тоже заперт в сейфе
Что такое количество информации
Количество информации - это числовая характеристика информации, отражающую ту степень неопределенности, которая исчезает после получения информации.
Наверное, вам приходилось смотреть по телевизору игру Спортлото. Каждый раз, когда выпадает очередной номер, степень неопределенности в номерах данного розыгрыша уменьшается на единицу - вы знаете уже один номер, но не знаете еще всех остальных. Эта неопределенность с номерами становиться все меньше с каждым выпадением нового номера и исчезает, когда становится известным последний номер розыгрыша.
Получаемая информация уменьшает число возможных вариантов выбора (т.е. неопределенность), а полная информация не оставляет вариантов вообще.
За единицу количества информации принимается 1 бит. Это количество информации, при котором неопределенность, т.е. количество вариантов выбора уменьшается вдвое или, другими словами, это ответ на вопрос, требующий односложного разрешения - да или нет
Бит - слишком маленькое количество информации. На практике чаще применяются более крупные единицы, чтобы измерить количество информации, например, байт, являющийся последовательностью из восьми бит. Именно восемь битов, или один байт, используется для того, чтобы закодировать символы алфавита, клавиши клавиатуры компьютера.Один байт также является минимальной единицей адресуемой памяти компьютера, т.е. обратиться в память можно к байту, а не биту.
Для того, чтобы измерить количество информации, широко используются еще более крупные производные единицы:
1КилоБайт(1Кбайт)= 1024 байт = 210 байт 1МегаБайт(1Мбайт)= 1024 Кбайт = 210 Кбайт = 1048576 байт = 220 байт 1ГигаБайт(1Гбайт) = 1024 Мбайт = 210 Мбайт = 1048576 Кбайт = 220 Кбайт = 1073741824 байт = 230 байт
Формула Хартли для измерения количества информации
Связь между количеством информации и числом вариантов выбора устанавливается формулой Хартли.
Американский инженер Р. Хартли в 1928 г. предложил рассматривать процесс получения информации как выбор одного сообщения из конечного наперёд заданного множества из N равновероятных сообщений.
Тогда количество информации I, содержащееся в выбранном сообщении, определяется как двоичный логарифм N:
Формула Хартли: I = log2N, где I — количество информации в битах; N — число возможных состояний.
Ту же формулу можно представить иначе:
N = 2I
Допустим, нужно угадать одно число из набора чисел от единицы до ста. По формуле Хартли можно вычислить, какое количество информации для этого требуется: I = log2100 = 6,644. Таким образом, сообщение о верно угаданном числе содержит количество информации, приблизительно равное 6,644 единицы информации.
Количество информации графического изображения
Расчёт количества информации, содержащейся в графическом изображении основан на подсчёте количества пикселей в этом изображении и на определении глубины цвета (информационного веса одного пикселя).
Итак, для расчёта информационного объёма растрового графического изображения используется формула:
Vpic = K * nсимв * i / kсжатия
где Vpic – это информационный объём растрового графического изображения, измеряющийся в байтах, килобайтах, мегабайтах;
K – количество пикселей (точек) в изображении, определяющееся разрешающей способностью носителя информации (экрана монитора, сканера, принтера);
i – глубина цвета, которая измеряется в битах на один пиксель;
kсжатия – коэффициент сжатия данных, без сжатия он равен 1.
Глубина цвета задаётся количеством битов, используемым для кодирования цвета точки. Глубина цвета связана с количеством отображаемых цветов формулой:
N=2i, где N – это количество цветов в палитре, i – глубина цвета в битах на один пиксель.
Задачи на расчет количества информации графического изображения