Математические выражения для термодинамической энтропии в формулировке статистической термодинамики , установленной Людвигом Больцманом и Дж. Уиллардом Гиббсом в 1870-х годах, аналогичны информационной энтропии Клода Шеннона и Ральфа Хартли , разработанной в 1940-х годах.
Определяющее выражение для энтропии в теории статистической механики, созданное Людвигом Больцманом и Дж. Уиллардом Гиббсом в 1870-х годах, имеет вид:
где — вероятность микросостояния i , взятая из равновесного ансамбля , а — постоянная Больцмана .
Определяющее выражение для энтропии в теории информации , созданной Клодом Э. Шенноном в 1948 году, имеет вид:
где — вероятность сообщения, взятого из пространства сообщений M , а b — основание используемого логарифма . Обычные значения b — 2, число Эйлера e и 10, а единица энтропии — шеннон (или бит ) для b = 2, nat для b = e и hartley для b = 10. [1]
Математически H можно также рассматривать как среднюю информацию, взятую по пространству сообщений, поскольку, когда определенное сообщение появляется с вероятностью p i , будет получено количество информации −log( p i ) (называемое информационным содержанием или самоинформацией).
Если все микросостояния равновероятны ( микроканонический ансамбль ), статистическая термодинамическая энтропия сводится к форме, заданной Больцманом,
где W — число микросостояний, соответствующее макроскопическому термодинамическому состоянию. Поэтому S зависит от температуры.
Если все сообщения равновероятны, то информационная энтропия сводится к энтропии Хартли
где — мощность пространства сообщений M.
Логарифм в термодинамическом определении — это натуральный логарифм . Можно показать, что формула энтропии Гиббса с натуральным логарифмом воспроизводит все свойства макроскопической классической термодинамики Рудольфа Клаузиуса . (См. статью: Энтропия (статистические представления) ).
Логарифм также может быть взят к натуральному основанию в случае информационной энтропии. Это эквивалентно выбору измерения информации в натах вместо обычных битов (или более формально, шеннонов). На практике информационная энтропия почти всегда вычисляется с использованием логарифмов по основанию 2, но это различие не сводится ни к чему иному, как к изменению единиц. Один нат равен примерно 1,44 шеннона.
Для простой сжимаемой системы, которая может выполнять только объемную работу, первый закон термодинамики принимает вид
Но это уравнение можно с таким же успехом записать в терминах того, что физики и химики иногда называют «приведенной» или безразмерной энтропией, σ = S / k , так что
Так же, как S сопряжено с T , так и σ сопряжено с k B T (энергией, характерной для T в молекулярном масштабе).
Таким образом, определения энтропии в статистической механике ( формула энтропии Гиббса ) и в классической термодинамике ( и фундаментальное термодинамическое соотношение ) эквивалентны для микроканонического ансамбля и статистических ансамблей, описывающих термодинамическую систему, находящуюся в равновесии с резервуаром, таких как канонический ансамбль , большой канонический ансамбль , изотермически-изобарический ансамбль . Эта эквивалентность обычно показана в учебниках. Однако эквивалентность между термодинамическим определением энтропии и энтропией Гиббса не является общей, а вместо этого является исключительным свойством обобщенного распределения Больцмана . [2]
Более того, было показано, что определения энтропии в статистической механике являются единственными энтропиями, которые эквивалентны энтропии классической термодинамики при следующих постулатах: [3]
Несмотря на вышесказанное, между этими двумя величинами есть разница. Информационная энтропия Η может быть рассчитана для любого распределения вероятностей (если «сообщение» берется за то, что событие i , имеющее вероятность p i , произошло вне пространства возможных событий), тогда как термодинамическая энтропия S относится конкретно к термодинамическим вероятностям p i . Однако эта разница скорее теоретическая, чем фактическая, поскольку любое распределение вероятностей может быть аппроксимировано произвольно близко некоторой термодинамической системой. [ необходима цитата ]
Более того, между ними можно установить прямую связь. Если рассматриваемые вероятности являются термодинамическими вероятностями p i : (приведенная) энтропия Гиббса σ может тогда рассматриваться просто как количество информации Шеннона, необходимое для определения подробного микроскопического состояния системы, учитывая ее макроскопическое описание. Или, как сказал Г. Н. Льюис, писавший о химической энтропии в 1930 году: «Прирост энтропии всегда означает потерю информации, и ничего больше». Чтобы быть более конкретным, в дискретном случае с использованием логарифмов по основанию два приведенная энтропия Гиббса равна среднему минимальному числу вопросов типа «да-нет», на которые необходимо ответить, чтобы полностью определить микросостояние , учитывая, что мы знаем макросостояние.
Более того, предписание находить равновесные распределения статистической механики, такие как распределение Больцмана, путем максимизации энтропии Гиббса при соблюдении соответствующих ограничений ( алгоритм Гиббса ), можно рассматривать не как нечто уникальное для термодинамики, а как принцип общей значимости в статистическом выводе, если требуется найти максимально неинформативное распределение вероятностей при соблюдении определенных ограничений на его средние значения. (Эти перспективы более подробно рассматриваются в статье Максимальная энтропия в термодинамике .)
Энтропия Шеннона в теории информации иногда выражается в единицах бит на символ. Физическая энтропия может быть на основе "на количество" ( h ), что называется " интенсивной " энтропией вместо обычной полной энтропии, которая называется "экстенсивной" энтропией. "Шенноны" сообщения ( Η ) являются его полной "экстенсивной" информационной энтропией и равны h , умноженному на число бит в сообщении.
Прямую и физически реальную связь между h и S можно найти, присвоив символ каждому микросостоянию, которое встречается на моль, килограмм, объем или частицу однородного вещества, а затем вычислив 'h' этих символов. По теории или по наблюдению, символы (микросостояния) будут встречаться с разной вероятностью, и это определит h . Если имеется N молей, килограммов, объемов или частиц единицы вещества, связь между h (в битах на единицу вещества) и физической экстенсивной энтропией в nats такова:
где ln(2) — коэффициент преобразования из основания 2 энтропии Шеннона в естественное основание e физической энтропии. N h — количество информации в битах, необходимое для описания состояния физической системы с энтропией S. Принцип Ландауэра демонстрирует реальность этого, утверждая, что минимальная требуемая энергия E (и, следовательно, выделяемое тепло Q ) при идеально эффективном изменении памяти или логической операции путем необратимого стирания или слияния N h бит информации будет в S раз больше температуры, которая
где h в информационных битах, а E и Q в физических Джоулях. Это было экспериментально подтверждено. [4]
Температура — это мера средней кинетической энергии на частицу в идеальном газе (кельвины = 2/3 джоули/ kB ), поэтому единица измерения Дж/К для kB безразмерна ( джоуль/джоуль). kb — коэффициент перевода энергии в 3/2 кельвины в джоули для идеального газа. Если бы измерения кинетической энергии на частицу идеального газа были выражены в джоулях вместо кельвинов, k b в приведенных выше уравнениях было бы заменено на 3/2. Это показывает, что S является истинной статистической мерой микросостояний, которая не имеет фундаментальной физической единицы, кроме единиц информации, в данном случае нац, что является просто утверждением того, какое основание логарифма было выбрано по соглашению.
Физический мысленный эксперимент, демонстрирующий, как одно лишь обладание информацией может в принципе иметь термодинамические последствия, был предложен в 1929 году Лео Силардом в уточнении знаменитого сценария демона Максвелла [5] (и в обратном порядке мысленного эксперимента о расширении Джоуля ).
Рассмотрим установку Максвелла, но только с одной газовой частицей в коробке. Если сверхъестественный демон знает, в какой половине коробки находится частица (что эквивалентно одному биту информации), он может закрыть затвор между двумя половинами коробки, закрыть поршень без сопротивления в пустой половине коробки, а затем извлечь джоули полезной работы, если затвор снова открыть. Затем частицу можно оставить изотермически расширяться обратно в ее исходный равновесный занятый объем. Таким образом, при правильных обстоятельствах обладание одним битом информации Шеннона (одним битом негэнтропии в терминологии Бриллюэна) действительно соответствует уменьшению энтропии физической системы. Глобальная энтропия не уменьшается, но преобразование информации в свободную энергию возможно.
Этот мысленный эксперимент был физически продемонстрирован с использованием фазово-контрастного микроскопа, оснащенного высокоскоростной камерой, подключенной к компьютеру, выступающему в качестве демона . [6] В этом эксперименте преобразование информации в энергию выполняется на броуновской частице с помощью управления обратной связью ; то есть синхронизации работы, придаваемой частице, с информацией, полученной о ее положении. Вычисление энергетических балансов для различных протоколов обратной связи подтвердило, что равенство Яржинского требует обобщения, которое учитывает объем информации, вовлеченной в обратную связь.
Фактически можно обобщить: любая информация, имеющая физическое представление, должна каким-то образом быть встроена в статистические механические степени свободы физической системы.
Таким образом, Рольф Ландауэр утверждал в 1961 году, если представить, что мы начинаем с этих степеней свободы в термализованном состоянии, то произойдет реальное снижение термодинамической энтропии, если они затем будут сброшены в известное состояние. Этого можно достичь только в сохраняющей информацию микроскопически детерминированной динамике, если неопределенность каким-то образом сбрасывается куда-то еще – то есть если энтропия окружающей среды (или ненесущих информацию степеней свободы) увеличивается по крайней мере на эквивалентную величину, как того требует Второй закон, путем получения соответствующего количества тепла: в частности, kT ln 2 тепла за каждый стертый бит случайности.
С другой стороны, утверждал Ландауэр, нет термодинамических возражений против того, чтобы логически обратимая операция потенциально достигалась физически обратимым способом в системе. Только логически необратимые операции — например, стирание бита до известного состояния или слияние двух путей вычисления — должны сопровождаться соответствующим увеличением энтропии. Когда информация физическая, вся обработка ее представлений, т. е. генерация, кодирование, передача, декодирование и интерпретация, являются естественными процессами, в которых энтропия увеличивается за счет потребления свободной энергии. [7]
Применительно к сценарию демона Максвелла/двигателя Сцилларда это предполагает, что возможно «считывать» состояние частицы в вычислительный аппарат без затрат энтропии; но только если аппарат уже был УСТАНОВЛЕН в известное состояние, а не находился в термализованном состоянии неопределенности. УСТАНОВИТЬ ( или СБРОСИТЬ ) аппарат в это состояние будет стоить всей энтропии, которую можно сэкономить, зная состояние частицы Сцилларда.
В 2008 и 2009 годах исследователи показали, что принцип Ландауэра может быть выведен из второго закона термодинамики и изменения энтропии, связанного с приростом информации, разработав термодинамику квантовых и классических систем, управляемых с помощью обратной связи. [8] [9]
Энтропия Шеннона была связана физиком Леоном Бриллюэном с концепцией, иногда называемой негэнтропией . В 1953 году Бриллюэн вывел общее уравнение [10] , утверждающее, что изменение значения информационного бита требует по крайней мере kT ln(2) энергии. Это та же энергия, что и работа, которую производит двигатель Лео Силларда в идеалистическом случае, которая, в свою очередь, равна той же величине, которую нашел Ландауэр . В своей книге [11] он далее исследовал эту проблему, придя к выводу, что любая причина изменения значения бита (измерение, решение по вопросу типа «да/нет», стирание, отображение и т. д.) потребует того же количества энергии, kT ln(2). Следовательно, получение информации о микросостояниях системы связано с производством энтропии , в то время как стирание приводит к производству энтропии только при изменении значения бита. Размещение бита информации в подсистеме, изначально находящейся в тепловом равновесии, приводит к локальному снижению энтропии. Однако, по мнению Бриллюэна, нет нарушения второго закона термодинамики, поскольку снижение термодинамической энтропии любой локальной системы приводит к увеличению термодинамической энтропии в другом месте. Таким образом, Бриллюэн прояснил значение негэнтропии, которая считалась спорной, поскольку ее более раннее понимание может дать эффективность Карно выше единицы. Кроме того, соотношение между энергией и информацией, сформулированное Бриллюэном, было предложено как связь между количеством битов, которые обрабатывает мозг, и потребляемой им энергией: Коллелл и Фоке [12] утверждали, что Де Кастро [13] аналитически нашел предел Ландауэра как термодинамическую нижнюю границу для вычислений мозга. Однако, хотя эволюция, как предполагается, «отобрала» наиболее энергетически эффективные процессы, физические нижние границы не являются реалистичными величинами в мозге. Во-первых, потому что минимальной единицей обработки, рассматриваемой в физике, является атом/молекула, что далеко от фактического способа работы мозга; и, во-вторых, потому что нейронные сети включают в себя важные факторы избыточности и шума, которые значительно снижают их эффективность. [14] Лафлин и др. [15] были первыми, кто предоставил явные величины для энергетической стоимости обработки сенсорной информации. Их открытия на мясных мухах показали, что для визуальных сенсорных данных стоимость передачи одного бита информации составляет около 5 × 10−14 Джоулей , или эквивалентно 104 молекул АТФ. Таким образом, эффективность нейронной обработки все еще далека от предела Ландауэра kTln(2) Дж, но, как любопытно, она все еще намного эффективнее современных компьютеров.
В 2009 году Махуликар и Хервиг переопределили термодинамическую негэнтропию как дефицит удельной энтропии динамически упорядоченной подсистемы относительно ее окружения. [16] Это определение позволило сформулировать принцип негэнтропии , который, как математически показано, вытекает из 2-го закона термодинамики во время существования порядка.
Хиршман показал, [17] см. Неопределенность Хиршмана , что принцип неопределенности Гейзенберга может быть выражен как конкретная нижняя граница суммы классических энтропий распределения квантовых наблюдаемых вероятностных распределений квантово-механического состояния, квадрата волновой функции, в координатном, а также импульсном пространстве, выраженном в планковских единицах . Полученные неравенства обеспечивают более жесткую границу соотношений неопределенности Гейзенберга.
Имеет смысл назначить « совместную энтропию », поскольку положения и импульсы являются квантово-сопряженными переменными и, следовательно, не являются совместно наблюдаемыми. Математически их следует рассматривать как совместное распределение . Обратите внимание, что эта совместная энтропия не эквивалентна энтропии фон Неймана , −Tr ρ ln ρ = −⟨ln ρ ⟩. Говорят, что энтропия Хиршмана учитывает полное информационное содержание смеси квантовых состояний . [18]
(Неудовлетворенность энтропией фон Неймана с точки зрения квантовой информации была выражена Стотландом, Померанским, Бахматом и Коэном, которые ввели еще одно определение энтропии, отражающее присущую квантово-механическим состояниям неопределенность. Это определение позволяет различать минимальную энтропию неопределенности чистых состояний и избыточную статистическую энтропию смесей. [19] )
Мы продемонстрировали, что свободная энергия получается с помощью управления с обратной связью, использующего информацию о системе; информация преобразуется в свободную энергию, как первая реализация демона Максвелла типа Сциларда.