stringtranslate.com

Хартли (единица)

Хартли (символ Харт ), также называемый запретом или дитом (сокращение от «десятичная цифра»), [1] [2] [3] — это логарифмическая единица измерения информации или энтропии , основанная на логарифмах по основанию 10 и степенях . из 10. Один хартли — это информационное содержание события, если вероятность того, что это событие произойдет, равна 110 . [4] Следовательно, оно равно информации, содержащейся в одной десятичной цифре (или dit), при условии априорной равновероятности каждого возможного значения. Он назван в честь Ральфа Хартли .

Если вместо этого используются логарифмы по основанию 2 и степени 2, то единицей информации является шеннон или бит , который является информационным содержанием события, если вероятность возникновения этого события равна 12 . Натуральные логарифмы и степени e определяют nat .

Один бан соответствует ln(10) nat = log 2 (10) Sh , или примерно 2,303 nat , или 3,322 бита (3,322 Sh). [а] Децибан — одна десятая бана (или около 0,332 шилл.) ; название образовано от бана приставкой СИ деци- .

Хотя не существует соответствующей единицы СИ , информационная энтропия является частью Международной системы величин , определенной международным стандартом IEC 80000-13 Международной электротехнической комиссии .

История

Термин « хартли» назван в честь Ральфа Хартли , который в 1928 году предложил измерять информацию, используя логарифмическую основу, равную числу различимых состояний в ее представлении, что будет основанием 10 для десятичной цифры. [5] [6]

Запрет и децибан были изобретены Аланом Тьюрингом совместно с Ирвингом Джоном «Джеком» Гудом в 1940 году для измерения объема информации, которую могли получить взломщики кодов в Блетчли - парке с использованием процедуры Банбуризма , для определения неизвестной обстановки каждого дня в Германии. шифровальная машина военно-морского флота «Энигма» . Название было навеяно огромными листами картона, напечатанными в городе Банбери , расположенном примерно в 30 милях отсюда, и которые использовались в процессе. [7]

Гуд утверждал, что последовательное суммирование децибанов для получения меры веса доказательств в пользу гипотезы, по сути, является байесовским выводом . [7] Дональд А. Гиллис , однако, утверждал, что запрет , по сути, аналогичен критерию строгости теста, предложенному Карлом Поппером . [8]

Использование в качестве единицы шансов

Децибан — особенно полезная единица измерения логарифма шансов , особенно в качестве меры информации в факторах Байеса , отношениях шансов (отношение шансов, поэтому логарифм — это разница логарифмов шансов) или весов доказательств. 10 децибанов соответствуют коэффициенту 10:1; от 20 децибан до шансов 100:1 и т. д. Согласно Гуду, изменение веса доказательств на 1 децибан (т.е. изменение шансов с четов примерно до 5:4) примерно настолько незначительно, насколько можно разумно ожидать от людей. количественно оценить степень своей веры в гипотезу. [9]

Коэффициенты, соответствующие целым децибанам, часто можно хорошо аппроксимировать простыми целочисленными соотношениями; они собраны ниже. Значение до двух десятичных знаков, простая аппроксимация (с точностью до 5%), с более точной аппроксимацией (с точностью до 1%), если простая аппроксимация неточна:

Смотрите также

Примечания

  1. ^ Это значение, примерно 103 , но немного меньше, можно понять просто потому, что : 3 десятичных цифры несут немного меньше информации, чем 10 двоичных цифр, поэтому 1 десятичная цифра немного меньше , чем 103 двоичных цифр.

Рекомендации

  1. ^ Клар, Райнер (1 февраля 1970 г.). «1.8.1 Begriffe aus der Informationstheorie» [1.8.1 Термины, используемые в теории информации]. Digitale Rechenautomaten – Eine Einführung [ Цифровые компьютеры – Введение ]. Sammlung Göschen (на немецком языке). Том. 1241/1241а (1-е изд.). Берлин, Германия: Вальтер де Грюйтер и компания / GJ Göschen'sche Verlagsbuchhandlung  [de] . п. 35. ISBN 3-11-083160-0. ISBN 978-3-11-083160-3 . Архив-Nr. 7990709. Архивировано из оригинала 18 апреля 2020 г. Проверено 13 апреля 2020 г. (205 страниц) (Примечание. Перепечатка первого издания 2019 года доступна под номерами ISBN 3-11002793-3 , 978-3-11002793-8 . Также существует переработанное и расширенное 4-е издание.) 
  2. ^ Клар, Райнер (1989) [1988-10-01]. «1.9.1 Begriffe aus der Informationstheorie» [1.9.1 Термины, используемые в теории информации]. Digitale Rechenautomaten – Eine Einführung in die Struktur von Computerhardware [ Цифровые компьютеры – Введение в структуру компьютерного оборудования ]. Sammlung Göschen (на немецком языке). Том. 2050 г. (4-е переработанное изд.). Берлин, Германия: Walter de Gruyter & Co. 57. ИСБН 3-11011700-2. ISBN 978-3-11011700-4(320 страниц)
  3. ^ Луков, Герман (1979). От цифр к битам: личная история электронного компьютера . Портленд, Орегон, США: Robotics Press. ISBN 0-89661-002-0. LCCN  79-90567.
  4. ^ «МЭК 80000-13:2008». Международная организация по стандартизации (ISO) . Проверено 21 июля 2013 г.
  5. ^ Хартли, Ральф Винтон Лион (июль 1928 г.). «Передача информации» (PDF) . Технический журнал Bell System . VII (3): 535–563 . Проверено 27 марта 2008 г.
  6. ^ Реза, Фазлолла М. (1994). Введение в теорию информации . Нью-Йорк: Dover Publications . ISBN 0-486-68210-2.
  7. ^ ab Хорошо, Ирвинг Джон (1979). «Исследования по истории вероятности и статистики. XXXVII Статистическая работа Тьюринга во Второй мировой войне». Биометрика . 66 (2): 393–396. дои : 10.1093/биомет/66.2.393. МР  0548210.
  8. ^ Гиллис, Дональд А. (1990). «Вес функции доказательства по Тьюрингу-Хорошему и мера строгости теста Поппера». Британский журнал философии науки . 41 (1): 143–146. дои : 10.1093/bjps/41.1.143. JSTOR  688010. MR  0055678.
  9. ^ Хорошо, Ирвинг Джон (1985). «Вес доказательств: краткий обзор» (PDF) . Байесовская статистика . 2 :253 . Проверено 13 декабря 2012 г.