Естественная единица информации (символ: nat ), [1] иногда также nit или nepit , представляет собой единицу информации или информационную энтропию , основанную на натуральных логарифмах и степенях e , а не на степенях 2 и логарифмах по основанию 2 , которые дайте определение Шеннон . Эта единица также известна под своим символом, nat. Один nat — это информационное содержание события, когда вероятность того, что это событие произойдет, равна 1/ e .
Один нат равен1/пер. 2 шеннонс ≈ 1,44 Ш или, что то же самое,1/пер. 10 Хартли ≈ 0,434 Харт. [1]
Бултон и Уоллес использовали термин nit в сочетании с минимальной длиной сообщения [2] , который впоследствии был изменен сообществом минимальной длины описания на nat , чтобы избежать путаницы с nit , используемым в качестве единицы яркости . [3]
Алан Тьюринг использовал естественный запрет . [4]
Энтропия Шеннона (информационная энтропия), являясь ожидаемой величиной информации о событии, по своей сути является однотипной величиной и с единицей информации. Международная система единиц , присваивая одну и ту же единицу ( джоуль на кельвин ) как теплоемкости , так и термодинамической энтропии , неявно рассматривает информационную энтропию как величину единичного измерения , при этом 1 nat = 1 . [a] Системы натуральных единиц, которые нормализуют константу Больцмана до 1, эффективно измеряют термодинамическую энтропию с использованием nat в качестве единицы.
Когда энтропия Шеннона записана с использованием натурального логарифма,