Помощь в учёбе, очень быстро...
Работаем вместе до победы

Условная энтропия. 
Теория информационных процессов и систем + доп. 
Материалы в эбс

РефератПомощь в написанииУзнать стоимостьмоей работы

Если источники, А и В независимы, то Н (В |А) = Н (В), причем это оказывается наибольшим значением условной энтропии. Другими словами, сообщение источника, А не может повысить неопределенность сообщения источника В; оно может либо не оказать никакого влияния (если источники независимы), либо понизить энтропию В. Пусть источник, А порождает ансамбль Ма сообщений (аа, а2,…, аМа), источнике порождает… Читать ещё >

Условная энтропия. Теория информационных процессов и систем + доп. Материалы в эбс (реферат, курсовая, диплом, контрольная)

Найдем совместную энтропию сложной информационной системы (композиции А, В) в том случае, если их сообщения не являются независимыми, т. е. если на содержание сообщения В оказывает влияние сообщение А.

Например, сообщение о матче футбольных команд Комета и Ракета «Комета выиграла» полностью снимает неопределенность о том, как сыграла Ракета.

Другой пример: сообщение, А содержит информацию о мужчине (фамилию, имя, отчество, год рождения, место рождения, образование, домашние адрес и телефон), а сообщение В содержит аналогичную информацию о женщине — супруге упомянутого мужчины. Очевидно, что сообщение В частично содержит в себе информацию А, а именно: фамилию жены, ее домашний адрес и телефон, скорее всего совпадающие с фамилией, домашним адресом и телефоном мужа, а также вероятностную оценку ее года рождения, который скорее всего близок к году рождения мужа. Таким образом, сообщение В несет для нас меньше информации, чем сообщение А, и совместная информация двух сообщений не является простой суммой информаций отдельных сообщений.

Пусть источник А порождает ансамбль Ма сообщений (аа, а2,…, аМа), источнике порождает ансамбль Mb сообщений (Ь2, Ь2,…, Ьдд,) и источники зависимы. Общий алфавит источников представляет собой множество пар вида (а, Ь;), общая мощность алфавита: Ма х Mb.

Энтропия сложной информационной системы (из двух источников) равна.

Условная энтропия. Теория информационных процессов и систем + доп. Материалы в эбс.

Поскольку А и В зависимы, то Условная энтропия. Теория информационных процессов и систем + доп. Материалы в эбс. а Условная энтропия. Теория информационных процессов и систем + доп. Материалы в эбс.

Подставив это в выражение для энтропии сложной системы, получаем:

Условная энтропия. Теория информационных процессов и систем + доп. Материалы в эбс.

В первом слагаемом индекс j имеется только у В, изменив порядок суммирования, получим член вида Условная энтропия. Теория информационных процессов и систем + доп. Материалы в эбс.), который равен 1, поскольку характеризует достоверное событие.

(какое-либо из сообщений в любом случае реализуется). Следовательно, первое слагаемое оказывается равным:

Условная энтропия. Теория информационных процессов и систем + доп. Материалы в эбс.

Во втором слагаемом члены вида Условная энтропия. Теория информационных процессов и систем + доп. Материалы в эбс.

Условная энтропия. Теория информационных процессов и систем + доп. Материалы в эбс. имеют смысл энтропии источника В при условии, что реализовалось сообщение а; — будем называть ее частной условной энтропией. Если ввести данное понятие и использовать его обозначение, то второе слагаемое будет иметь вид:

Условная энтропия. Теория информационных процессов и систем + доп. Материалы в эбс.

или подробнее.

Условная энтропия. Теория информационных процессов и систем + доп. Материалы в эбс.

где Н (В |А) есть общая условная энтропия источника В относительно источника А. Окончательно получаем для энтропии сложной системы:

Условная энтропия. Теория информационных процессов и систем + доп. Материалы в эбс.

Полученное выражение представляет собой общее правило нахождения энтропии сложной системы. Совершенно очевидно, что выражение (2.9) является частным случаем (2.11) при условии независимости источников А и В.

Относительно условной энтропии можно высказать следующие утверждения.

1. Условная энтропия является величиной неотрицательной. Причем Н (В |А) = 0 только в том случае, если любое сообщение А полностью определяет сообщение В, т. е.

Условная энтропия. Теория информационных процессов и систем + доп. Материалы в эбс.

В этом случае Н (А, В) = Н (А).

2. Если источники, А и В независимы, то Н (В |А) = Н (В), причем это оказывается наибольшим значением условной энтропии. Другими словами, сообщение источника, А не может повысить неопределенность сообщения источника В; оно может либо не оказать никакого влияния (если источники независимы), либо понизить энтропию В.

Приведенные утверждения можно объединить одним неравенством:

Условная энтропия. Теория информационных процессов и систем + доп. Материалы в эбс.

т.е. условная энтропия не превосходит безусловную.

3. Из соотношений (2.11) и (2.12) следует, что.

Условная энтропия. Теория информационных процессов и систем + доп. Материалы в эбс.

причем равенство реализуется только в том случае, если источники, А и В независимы.

Энтропия источника непрерывных сообщений

Рассмотрим систему, где качественные признаки состояния изменяются непрерывно (непрерывный сигнал). Вероятность нахождения системы в состоянии х (т.е. сигнал принимает значение х) характеризуется плотностью вероятности/(х). Чтобы найти энтропию такого сообщения, разбиваем диапазон возможного изменения сигнала на дискреты размером Дх. Вероятность нахождения системы в i-й дискрете равна.

Условная энтропия. Теория информационных процессов и систем + доп. Материалы в эбс.

Тогда энтропия системы вычисляется так:

Условная энтропия. Теория информационных процессов и систем + доп. Материалы в эбс.

при малых Дх:

Условная энтропия. Теория информационных процессов и систем + доп. Материалы в эбс.

А также Условная энтропия. Теория информационных процессов и систем + доп. Материалы в эбс. Таким образом.

Условная энтропия. Теория информационных процессов и систем + доп. Материалы в эбс.

Положим, Дх = 1 (это возможно сделать, выбрав соответствующий масштаб и единицу измерения), тогда:

Условная энтропия. Теория информационных процессов и систем + доп. Материалы в эбс.

Величина Н* называется приведенной, или дифференциальной, энтропией.

При уменьшении Ах приведенная энтропия Я стремится к оо. Это естественно, так как чем точнее мы хотим задать состояние системы, тем большую степень неопределенности мы должны устранить. Дифференциальная энтропия не является мерой количества информации, хотя и характеризует степень неопределенности, присущую источнику.

Показать весь текст
Заполнить форму текущей работой