Собственная информация

Собственная информация
Собственная информация дискретных равномерных распределений с двумя, тремя и десятью состояниями. Единица измерения «нат» — горизонтальная зелёная линия, риски слева — логарифмы натуральных чисел.

Собственная информация — статистическая функция дискретной случайной величины.

Собственная информация сама является случайной величиной, которую следует отличать от её среднего значения — информационной энтропии.

Для случайной величины X, имеющей конечное число значений:

P_X \left( x_i \right) = p_i, p_i \geq 0, i = 1, 2, ..., n
\sum_{i=1}^n p_i = 1

собственная информация определяется как

I \left( X \right) =  - \log P_X \left( X \right)

Единицы измерения информации зависят от основания логарифма. В случае логарифма с основанием 2 единицей измерения является бит, если используется натуральный логарифм — то нат, если десятичный — то хартли.

Основание логарифма Единица измерения Количество информации
о падении монеты «орлом» вверх
2 бит - log_2 ( 1 / 2 ) = log_2 2 = 1 бит
e нат - ln ( 1 / 2 ) = ln 2 \approx 0,69 ната
10 хартли - log_{10} ( 1 / 2 ) = log_{10} 2 \approx 0,30 хартли

Собственную информацию можно понимать как «меру неожиданности» события — чем меньше вероятность события, тем больше информации оно содержит.

Свойства собственной информации

1) Неотрицательность: I(x) \geq 0. I(x) = 0 при p(x) = 1, т.е. предопределенный факт никакой информации не несет.

2) Монотонность: I(x_1) > I(x_2), если p(x_1) < p(x_2).

3) Аддитивность: для независимых x_1,...,x_n справедливо

I(x_1...x_n)=\sum_{i=1}^n I(x_i).

См. также

Литература



Wikimedia Foundation. 2010.

Игры ⚽ Поможем написать реферат

Полезное


Смотреть что такое "Собственная информация" в других словарях:

  • Информация — Для улучшения этой статьи желательно?: Найти и оформить в виде сносок ссылки на авторитетные источники, подтверждающие написанное. Добавить иллюстрации. Добавить информацию для других стран и реги …   Википедия

  • Информация — (Information) Информация это сведения о чем либо Понятие и виды информации, передача и обработка, поиск и хранение информации Содержание >>>>>>>>>>>> …   Энциклопедия инвестора

  • Информация Фишера — В математической статистике и теории информации информацией Фишера называется дисперсия функции вклада выборки. Эта функция названа в честь описавшего её Рональда Фишера. Содержание 1 Определение 2 Свойства …   Википедия

  • АСИММЕТРИЧНАЯ ИНФОРМАЦИЯ — (asymmetric information) Ситуация, когда не все экономические агенты располагают одинаковой информацией (information). Естественно, подобная ситуация в реальной экономике является обычной. Ни один из субъектов хозяйственной жизни не имеет доступа …   Экономический словарь

  • Взаимная информация — Взаимная информация  статистическая функция двух случайных величин, описывающая количество информации, содержащееся в одной случайной величине относительно другой. Взаимная информация определяется через энтропию и условную энтропию двух… …   Википедия

  • Условная взаимная информация — Взаимная информация  статистическая функция двух случайных величин, описывающая количество информации, содержащееся в одной случайной величине относительно другой. Взаимная информация определяется через энтропию и условную энтропию двух случайных …   Википедия

  • Нат (единица измерения информации) — Нат больше бита, но немного меньше трита. Жёлтая кривая  график логарифма. Нат  одна из единиц измерения информации. Определяется через натуральный логарифм, в отличие от других единиц, где основание логарифма является целым числом. Применяется в …   Википедия

  • Формула Хартли — определяет количество информации, содержащееся в сообщении длины n. Имеется алфавит А, из букв которого составляется сообщение: Количество возможных вариантов разных сообщений: где N  возможное количество различных сообщений, шт; m … …   Википедия

  • Нат (теория информации) — У этого термина существуют и другие значения, см. Нат. Единицы измерения информации бит, нат, трит и бан (децит) Нат  одна из единиц измерения информации. Определяется через натуральный …   Википедия

  • Нат (Единица измерения информации) — Нат больше бита, но немного меньше трита. Жёлтая кривая  график логарифма. Нат  одна из единиц измерения информации. Определяется через натуральный логарифм, в отличие от других единиц, где основание логарифма является целым числом. Применяется в …   Википедия


Поделиться ссылкой на выделенное

Прямая ссылка:
Нажмите правой клавишей мыши и выберите «Копировать ссылку»