Величина, характеризующая количество неопределенности в теории информации, имеет название энтропия, точнее информационная энтропия.
Понятие энтропии тесно связано с понятием количества информации.
Если энтропия – мера неопределенности, то информация – это мера снятой неопределенности.
Информацию как снятую неопределенность определил основоположник теории информации Клод Шеннон.
Ситуация максимальной неопределенности предполагает наличие нескольких равновероятных альтернатив (вариантов), т. е. ни один из вариантов не является более предпочтительным.
Причем, чем больше равновероятных вариантов наблюдается, тем больше неопределенность, тем сложнее сделать однозначный выбор и тем больше информации требуется для этого получить.
В конечном счете, мера снятой неопределенности может быть 100 %, что означает, что мы достигли уровня объективности («изначальной» информации), когда информация уже не связана с превращением неопределенности в определенность.
Конец ознакомительного фрагмента.
Текст предоставлен ООО «ЛитРес».
Прочитайте эту книгу целиком, купив полную легальную версию на ЛитРес.
Безопасно оплатить книгу можно банковской картой Visa, MasterCard, Maestro, со счета мобильного телефона, с платежного терминала, в салоне МТС или Связной, через PayPal, WebMoney, Яндекс.Деньги, QIWI Кошелек, бонусными картами или другим удобным Вам способом.