При угадывании результата броска игральной кости задается вопрос «Выпало 6?». Какое количество информация содержит ответ?

р= 1/6, 1 — р = 5/6, как следует, из (2.14)

I(р) = 1/6 ∙ log2 6 + 5/6 ∙ log2 1,2 = 0,65 бит < 1 бит.

6. Формула (2.14) приводит еще к одному выводу. Пусть некий опыт имеет два финала А и В, при этом рА = 0,99 , а рB = 0,01. В случае финала А получим количество инфы IА = — log2 0,99 = 0,0145 бит. В случае финала B количество инфы оказывается равным IВ = — log2 0,01 = 6,644 бит. Другими словами, больше инфы связано с теми финалами, которые наименее возможны. Вправду, то, что наступит конкретно А, практически наверняка знали и до опыта; потому реализация такового финала сильно мало добавляет к нашей осведомленности. Напротив, финал В — очень редчайший; инфы с ним связано больше (осуществилось тяжело ожидаемое событие). Но такое огромное количество инфы будем при повторах опыта получать изредка, так как мала возможность В. Среднее же количество инфы согласно (2.14) равно I = 0,99 ∙ IА + 0,01 ∙ IВ0,081 бит.

7. Нами рассмотрен вероятностный подход к определению количества инфы. Он не является единственным. Как будет показано дальше, количество инфы можно связать с числом символов в дискретном сообщении — таковой метод измерения именуется большим. Можно обосновать, что при любом варианте кодировки инфы Iвер< Iоб.

8. Объективность инфы. При использовании людьми одна и та же информация может иметь различную оценку исходя из убеждений значимости (значимости, ценности). Определяющим в таковой оценке оказывается содержание (смысл) сообщения для определенного потребителя. Но при решении практических задач технического нрава содержание сообщения может не играть роли. К примеру, задачка телеграфной (и хоть какой другой) полосы связи является четкая и безошибочная передача сообщения без анализа того, как ценной для получателя оказывается связанная с ним информация. Техническое устройство не в силах оценить значимости инфы — его задачка без утрат передать либо сохранить информацию. Выше обусловили информацию как итог выбора. Такое определение не находится в зависимости от того, кто и каким образом производит выбор, а связанная с ним количественная мера инфы — схожей для хоть какого потребителя. Как следует, возникает возможность беспристрастного измерения инфы, при всем этом итог измерения — абсолютен. Это служит предпосылкой для решения технических задач. Нельзя предложить абсолютной и единой для всех меры ценности инфы. Исходя из убеждений формальной инфы страничка из учебника информатики либо из романа «Война и мир» и страничка, записанная глупыми значками, содержат однообразное количество инфы. Количественная сторона инфы беспристрастна, смысловая — нет. Но, жертвуя смысловой (семантической) стороной инфы, получаем конкретные способы измерения ее количества, также обретаем возможность обрисовывать информационные процессы математическими уравнениями. Это является приближением и в то же время условием применимости законов теории инфы к анализу и описанию информационных процессов.

9. Информация и познание. На бытовом уровне, в науках социальной направленности, к примеру в педагогике «информация» отождествляется с «информированностью», т.е. человечьим познанием, которое, в свою очередь, связано с оценкой смысла инфы. В теории инфы же, напротив, информация является мерой нашего неведения чего-либо (но что в принципе может произойти); как это происходит и узнаем итог, информация, связанная с данным событием, исчезает. Состоявшееся событие не несет инфы, так как теряется его неопределенность (энтропия становится равной нулю), и согласно (2.13) I = 0.

Последние два замечания представляются очень необходимыми, так как непонимание обозначенных в их событий порождает пробы внедрения законов теории инфы в тех сферах, где условия ее применимости не выполнены. Это, в свою очередь, порождает отрицательные результаты, которые служат предпосылкой расстройства в самой теории. Но неважно какая теория, в том числе и теория инфы, справедлива только в рамках собственных начальных ограничений. С другими, в том числе философскими, качествами понятия «информация» можно познакомиться в книжке А.В. Могилева, Н. И. Пака, Е. К. Хеннера [30, с.27-30]; в ней же приводится перечень литературы по данному вопросу.

content

Share
Published by
content

Recent Posts

Магнитное поле тока. Магнитные силовые линии

Разница между энергией электрического поля и энергией магнитного поля примерно такая же, как между энергией,…

12 месяцев ago

Постоянные магниты

Когда-то легендарный пастух Магнес, нашел природный магнитный камень, притягивающий железо. В последствии этот камень назвали магнетит или магнитный…

12 месяцев ago

Соединение конденсаторов

В электрических цепях применяются различные способы соединения конденсаторов. Соединение конденсаторов может производиться: последовательно, параллельно и последовательно-параллельно (последнее иногда называют смешанное соединение конденсаторов). Существующие…

12 месяцев ago

Обозначение конденсаторов

Обозначение конденсаторов на схемах определено ЕСКД ГОСТ 2.728-74. Обозначения условные графические в схемах. Резисторы, конденсаторы. Итак,…

1 год ago

Виды конденсаторов

Узнав, что же такое конденсатор, рассмотрим, какие бывают виды конденсаторов. Итак, виды конденсаторов можно классифицировать по…

1 год ago

Энергия поля конденсатора

Вся энергия заряженного конденсатора сосредотачивается в электрическом поле между его пластинами. Энергию, накоп­ленную в конденсаторе, можно определить…

1 год ago