В теории информации и статистике негэнтропия используется как мера расстояния до нормальности. Понятие и фраза « отрицательная энтропия » были введены Эрвином Шрёдингером в его научно-популярной книге 1944 года « Что такое жизнь?» [1] Позднее французский физик Леон Бриллюэн сократил фразу до néguentropie (негэнтропия). [2] [3] В 1974 году Альберт Сент-Дьёрдьи предложил заменить термин негэнтропия на синтропию . Этот термин, возможно, возник в 1940-х годах у итальянского математика Луиджи Фантаппье , который пытался построить единую теорию биологии и физики . Бакминстер Фуллер пытался популяризировать это использование, но негэнтропия остаётся распространённой.
В примечании к книге «Что такое жизнь?» Шредингер объяснил использование этой фразы.
... если бы я обслуживал только их [физиков], я бы вместо этого позволил дискуссии перейти к свободной энергии . Это более привычное понятие в этом контексте. Но этот весьма технический термин казался лингвистически слишком близким к энергии , чтобы заставить среднего читателя ощутить контраст между этими двумя вещами.
В теории информации и статистике негэнтропия используется как мера расстояния до нормальности. [4] [5] [6] Из всех распределений с заданным средним значением и дисперсией нормальное или гауссовское распределение имеет самую высокую энтропию . Негэнтропия измеряет разницу в энтропии между заданным распределением и гауссовым распределением с тем же средним значением и дисперсией. Таким образом, негэнтропия всегда неотрицательна, инвариантна при любом линейном обратимом изменении координат и обращается в нуль тогда и только тогда, когда сигнал является гауссовым.
Негэнтропия определяется как
где — дифференциальная энтропия гауссовой плотности с тем же средним значением и дисперсией, что и — дифференциальная энтропия :
Негэнтропия используется в статистике и обработке сигналов . Она связана с сетевой энтропией , которая используется в независимом компонентном анализе . [7] [8]
Негэнтропия распределения равна расхождению Кульбака–Лейблера между и гауссовым распределением с тем же средним и дисперсией, что и (см. Дифференциальная энтропия § Максимизация в нормальном распределении для доказательства). В частности, она всегда неотрицательна.
Существует физическая величина, тесно связанная со свободной энергией ( свободная энтальпия ), с единицей энтропии и изоморфная негэнтропии, известной в статистике и теории информации. В 1873 году Уиллард Гиббс создал диаграмму, иллюстрирующую концепцию свободной энергии, соответствующей свободной энтальпии . На диаграмме можно увидеть величину, называемую емкостью для энтропии . Эта величина представляет собой количество энтропии, которое может быть увеличено без изменения внутренней энергии или увеличения ее объема. [9] Другими словами, это разница между максимально возможной, при предполагаемых условиях, энтропией и ее фактической энтропией. Это в точности соответствует определению негэнтропии, принятому в статистике и теории информации. Подобная физическая величина была введена в 1869 году Массье для изотермического процесса [10] [11] [12] (обе величины отличаются только знаком цифры), а затем Планком для изотермического - изобарического процесса. [13] Совсем недавно было показано, что термодинамический потенциал Массье-Планка , известный также как свободная энтропия , играет большую роль в так называемой энтропийной формулировке статистической механики [14], применяемой , среди прочего, в молекулярной биологии [15] и термодинамических неравновесных процессах. [16]
В частности, математически негэнтропия (отрицательная энтропийная функция, в физике интерпретируемая как свободная энтропия) является выпукло сопряженной функцией LogSumExp (в физике интерпретируемой как свободная энергия).
В 1953 году Леон Бриллюэн вывел общее уравнение [17], утверждающее, что изменение значения информационного бита требует по меньшей мере энергии. Это та же энергия, что и работа, которую производит двигатель Лео Силарда в идеалистическом случае. В своей книге [18] он более подробно исследовал эту проблему, придя к выводу, что любая причина изменения этого значения бита (измерение, решение по вопросу типа «да/нет», стирание, отображение и т. д.) потребует того же количества энергии.