stringtranslate.com

Информация

Информация — это абстрактное понятие , которое относится к чему-то, что имеет силу информировать . На самом фундаментальном уровне это относится к интерпретации (возможно, формальной ) того, что может быть воспринято , или их абстракций . Любой естественный процесс, который не является полностью случайным , и любая наблюдаемая закономерность в любой среде, можно сказать, передают некоторое количество информации. В то время как цифровые сигналы и другие данные используют дискретные знаки для передачи информации, другие явления и артефакты, такие как аналоговые сигналы , стихи , изображения , музыка или другие звуки , а также токи передают информацию в более непрерывной форме. [1] Информация — это не само знание , а значение , которое может быть получено из представления посредством интерпретации. [2]

Понятие информации релевантно или связано с различными понятиями, [3] включая ограничение , коммуникацию , контроль , данные , форму , образование , знание , значение , понимание , умственные стимулы , шаблон , восприятие , предложение , представление и энтропию .

Информация часто обрабатывается итеративно: данные, доступные на одном этапе, обрабатываются в информацию, которая будет интерпретирована и обработана на следующем этапе. Например, в письменном тексте каждый символ или буква передает информацию, относящуюся к слову, частью которого она является, каждое слово передает информацию, относящуюся к фразе, частью которой она является, каждая фраза передает информацию, относящуюся к предложению, частью которого она является, и так далее, пока на последнем этапе информация не будет интерпретирована и не станет знанием в данной области . В цифровом сигнале биты могут быть интерпретированы в символы, буквы, числа или структуры, которые передают информацию, доступную на следующем уровне выше. Ключевой характеристикой информации является то, что она подлежит интерпретации и обработке.

Получение информации из сигнала или сообщения можно рассматривать как разрешение неоднозначности или неопределенности , возникающей при интерпретации закономерностей в сигнале или сообщении. [4]

Информация может быть структурирована как данные . Избыточные данные могут быть сжаты до оптимального размера, который является теоретическим пределом сжатия.

Информация, доступная через сбор данных, может быть получена путем анализа. Например, ресторан собирает данные с каждого заказа клиента. Эта информация может быть проанализирована для получения знаний, которые используются, когда бизнес впоследствии хочет определить наиболее популярное или наименее популярное блюдо. [ необходима цитата ]

Информация может передаваться во времени, посредством хранения данных , и в пространстве, посредством коммуникации и телекоммуникаций . [5] Информация выражается либо как содержание сообщения , либо посредством прямого или косвенного наблюдения . То, что воспринимается, может быть истолковано как сообщение само по себе, и в этом смысле вся информация всегда передается как содержание сообщения.

Информация может быть закодирована в различных формах для передачи и интерпретации (например, информация может быть закодирована в последовательность знаков или передана посредством сигнала ). Она также может быть зашифрована для безопасного хранения и передачи.

Неопределенность события измеряется вероятностью его возникновения. Неопределенность обратно пропорциональна вероятности возникновения. Теория информации использует это, делая вывод, что более неопределенные события требуют больше информации для разрешения их неопределенности. Бит является типичной единицей информации . Это «то, что уменьшает неопределенность вдвое». [6] Могут использоваться и другие единицы, такие как nat . Например, информация, закодированная в одном «честном» подбрасывании монеты, составляет log 2 (2/1) = 1 бит, а в двух честных подбрасываниях монеты — log 2 (4/1) = 2 бита. В статье журнала Science за 2011 год подсчитано, что 97% технологически хранимой информации уже находились в цифровых битах в 2007 году, а 2002 год стал началом цифровой эры хранения информации (при этом цифровая емкость хранения впервые обошла аналоговую). [7]

Точное определение информации и цифрового приложения

Информацию можно точно определить с помощью теории множеств:

«Информация — это выборка из области информации».

«Домен информации» — это набор, который отправитель и получатель информации должны знать перед обменом информацией. Например, цифровая информация состоит из строительных блоков, которые все являются числовыми последовательностями. Каждая числовая последовательность представляет собой выборку из своего домена. Отправитель и получатель цифровой информации (числовых последовательностей) должны знать домен и двоичный формат каждой числовой последовательности перед обменом информацией. Определяя числовые последовательности онлайн, это будет систематически и универсально использоваться. Перед обменом цифровой числовой последовательностью может быть установлена ​​эффективная уникальная ссылка на ее онлайн-определение. Эта онлайн-определенная цифровая информация (числовая последовательность) будет глобально сопоставимой и глобально доступной для поиска. [8]

Этимология

Английское слово «information» происходит от среднефранцузского enformacion/informacion/information — «уголовное расследование» и его этимона, латинского informatiō(n) — «зачатие, обучение, создание». [9]

В английском языке «information» — неисчисляемое неисчисляемое существительное .

Теория информации

Теория информации — это научное исследование квантификации , хранения и передачи информации . Область была фундаментально создана работами Гарри Найквиста и Ральфа Хартли в 1920-х годах, а также Клода Шеннона в 1940-х годах. Область находится на стыке теории вероятностей , статистики , информатики, статистической механики , информационной инженерии и электротехники .

Ключевой мерой в теории информации является энтропия . Энтропия количественно определяет количество неопределенности, связанной со значением случайной величины или результатом случайного процесса . Например, определение результата честного подбрасывания монеты (с двумя равновероятными результатами) дает меньше информации (более низкую энтропию), чем указание результата броска игральной кости ( с шестью равновероятными результатами). Некоторые другие важные меры в теории информации — это взаимная информация , пропускная способность канала, показатели ошибок и относительная энтропия . Важные подобласти теории информации включают кодирование источника , теорию алгоритмической сложности , алгоритмическую теорию информации и информационно-теоретическую безопасность .

Приложения фундаментальных тем теории информации включают кодирование источника/ сжатие данных (например, для файлов ZIP ), а также кодирование канала/ обнаружение и исправление ошибок (например, для DSL ). Его влияние имело решающее значение для успеха миссий Voyager в дальний космос, изобретения компакт-диска , осуществимости мобильных телефонов и развития Интернета. Теория также нашла применение в других областях, включая статистический вывод , [10] криптографию , нейробиологию , [11] восприятие , [12] лингвистику, эволюцию [13] и функцию [14] молекулярных кодов ( биоинформатика ), теплофизику , [15] квантовые вычисления , черные дыры , поиск информации , сбор разведданных , обнаружение плагиата , [16] распознавание образов , обнаружение аномалий [17] и даже создание произведений искусства.

Как сенсорный вход

Часто информацию можно рассматривать как тип входных данных для организма или системы . Входные данные бывают двух видов; некоторые входные данные важны для функционирования организма (например, пища) или системы ( энергия ) сами по себе. В своей книге «Сенсорная экология» [18] биофизик Дэвид Б. Дьюзенбери назвал их каузальными входными данными. Другие входные данные (информация) важны только потому, что они связаны с каузальными входными данными и могут использоваться для прогнозирования возникновения каузальных входных данных в более позднее время (и, возможно, в другом месте). Некоторая информация важна из-за ассоциации с другой информацией, но в конечном итоге должна быть связь с каузальными входными данными.

На практике информация обычно передается слабыми стимулами, которые должны быть обнаружены специализированными сенсорными системами и усилены энергетическими входами, прежде чем они смогут стать функциональными для организма или системы. Например, свет в основном (но не только, например, растения могут расти в направлении источника света) является причинным входом для растений, но для животных он только предоставляет информацию. Цветной свет, отраженный от цветка, слишком слаб для фотосинтеза, но зрительная система пчелы обнаруживает его, и нервная система пчелы использует эту информацию, чтобы направить пчелу к цветку, где пчела часто находит нектар или пыльцу, которые являются причинными входами, питательной функцией.

Как представление и сложность

Когнитивист и прикладной математик Роналдо Виго утверждает , что информация — это концепция, которая требует по крайней мере двух связанных сущностей для того, чтобы иметь количественный смысл. Это любая размерно определенная категория объектов S и любое из ее подмножеств R. R, по сути, является представлением S или, другими словами, передает репрезентативную (и, следовательно, концептуальную) информацию о S. Затем Виго определяет объем информации, которую R передает о S, как скорость изменения сложности S всякий раз, когда объекты в R удаляются из S. В рамках «информации Виго» паттерн, инвариантность, сложность, представление и информация — пять фундаментальных конструкций универсальной науки — объединяются в рамках новой математической структуры. [19] [20] [21] Среди прочего, структура направлена ​​на преодоление ограничений информации Шеннона-Уивера при попытке охарактеризовать и измерить субъективную информацию.

В качестве замены напрасно потраченного времени, энергии и материалов

Майкл Гривз предложил, чтобы фокус на информации был на том, что она делает, а не на определении того, что она есть. Гривз предложил [22] , что информация может быть заменена на растраченные впустую физические ресурсы, время, энергию и материалы, для задач, ориентированных на цель. Задачи, ориентированные на цель, можно разделить на два компонента: наиболее экономически эффективное использование физических ресурсов: времени, энергии и материалов, и дополнительное использование физических ресурсов, используемых задачей. Эта вторая категория по определению является растраченными впустую физическими ресурсами. Информация не заменяет и не заменяет наиболее экономически эффективное использование физических ресурсов, но может быть использована для замены растраченных впустую физических ресурсов. Условие, при котором это происходит, заключается в том, что стоимость информации меньше стоимости растраченных впустую физических ресурсов. Поскольку информация является неконкурентным товаром, это может быть особенно выгодно для повторяющихся задач. В производстве категория задач наиболее экономически эффективного использования физических ресурсов называется бережливым производством.

Как влияние, ведущее к трансформации

Информация — это любой тип паттерна, который влияет на формирование или преобразование других паттернов. [23] [24] В этом смысле нет необходимости в сознательном разуме для восприятия, а тем более оценки паттерна. Рассмотрим, например, ДНК . Последовательность нуклеотидов — это паттерн, который влияет на формирование и развитие организма без какой-либо необходимости в сознательном разуме. Однако можно утверждать, что для человека осознанное определение паттерна, например нуклеотида, естественно подразумевает сознательную обработку информации. Однако существование одноклеточных и многоклеточных организмов со сложной биохимией , которая приводит, среди прочего, к существованию ферментов и полинуклеотидов, которые взаимодействуют, поддерживая биологический порядок и участвуя в развитии многоклеточных организмов, на миллионы лет предшествует возникновению человеческого сознания и созданию научной культуры, которая создала химическую номенклатуру.

Теория систем иногда, кажется, ссылается на информацию в этом смысле, предполагая, что информация не обязательно включает в себя какой-либо сознательный разум, и шаблоны, циркулирующие (благодаря обратной связи ) в системе, могут быть названы информацией. Другими словами, можно сказать, что информация в этом смысле является чем-то потенциально воспринимаемым как представление, хотя и не созданным или представленным для этой цели. Например, Грегори Бейтсон определяет «информацию» как «различие, которое создает различие». [25]

Однако, если предпосылка «влияния» подразумевает, что информация была воспринята сознательным разумом и также интерпретирована им, то конкретный контекст, связанный с этой интерпретацией, может вызвать преобразование информации в знание . Сложные определения как «информации», так и «знаний» затрудняют такой семантический и логический анализ, но условие «преобразования» является важным моментом в изучении информации, поскольку она связана со знанием, особенно в деловой дисциплине управления знаниями . В этой практике инструменты и процессы используются для оказания помощи работнику знаний в проведении исследований и принятии решений, включая такие шаги, как:

Стюарт (2001) утверждает, что преобразование информации в знания имеет решающее значение, поскольку лежит в основе создания стоимости и конкурентного преимущества современного предприятия.

В биологической структуре Мизраджи [26] описал информацию как сущность, возникающую из взаимодействия паттернов с рецепторными системами (например: в молекулярных или нейронных рецепторах, способных взаимодействовать с определенными паттернами, информация возникает из этих взаимодействий). Кроме того, он включил идею «катализаторов информации», структур, где возникающая информация способствует переходу от распознавания паттернов к целенаправленному действию (например, специфическое преобразование субстрата в продукт ферментом или слуховое восприятие слов и выработка орального ответа)

Датский словарь информационных терминов [27] утверждает, что информация дает ответ только на поставленный вопрос. Дает ли ответ знание, зависит от информированного человека. Поэтому обобщенное определение концепции должно быть таким: «Информация» = ответ на конкретный вопрос».

Когда Маршалл Маклюэн говорит о медиа и их влиянии на человеческие культуры, он имеет в виду структуру артефактов , которые в свою очередь формируют наше поведение и мышление. Также феромоны часто называют «информацией» в этом смысле.

Технологически опосредованная информация

В этих разделах используются измерения данных, а не информации, поскольку информацию невозможно измерить напрямую.

По состоянию на 2007 год

Подсчитано, что мировая технологическая емкость для хранения информации выросла с 2,6 (оптимально сжатых) эксабайт в 1986 году, что является информационным эквивалентом менее одного CD-ROM объемом 730 МБ на человека (539 МБ на человека), до 295 (оптимально сжатых) эксабайт в 2007 году. [7] Это информационный эквивалент почти 61 CD-ROM на человека в 2007 году. [5]

Совокупный технологический потенциал мира по получению информации через односторонние вещательные сети составил информационный эквивалент 174 газет на человека в день в 2007 году. [7]

Совокупная эффективная мировая способность обмениваться информацией через двусторонние телекоммуникационные сети в 2007 году была эквивалентна 6 газетам на человека в день. [5]

По оценкам, по состоянию на 2007 год 90% всей новой информации является цифровой и в основном хранится на жестких дисках. [28]

По состоянию на 2020 год

Прогнозируется, что общий объем данных, созданных, собранных, скопированных и потребленных во всем мире, будет быстро расти и достигнет 64,2 зеттабайт в 2020 году. В течение следующих пяти лет, вплоть до 2025 года, ожидается, что объем создания данных во всем мире вырастет до более чем 180 зеттабайт. [29]

Как записи

Записи — это специализированные формы информации. По сути, записи — это информация, созданная сознательно или как побочный продукт деловой активности или транзакций и сохраняемая из-за ее ценности. В первую очередь, их ценность заключается в том, что они являются доказательством деятельности организации, но они также могут сохраняться из-за их информационной ценности. Надежное управление записями гарантирует, что целостность записей сохраняется до тех пор, пока они требуются. [ необходима цитата ]

Международный стандарт по управлению записями ISO 15489 определяет записи как «информацию, созданную, полученную и поддерживаемую в качестве доказательства и информации организацией или лицом в соответствии с правовыми обязательствами или в ходе деловых операций». [30] Комитет по электронным записям Международного комитета архивов (ICA) определил запись как «записанную информацию, созданную или полученную при инициировании, проведении или завершении институциональной или индивидуальной деятельности, которая включает содержание, контекст и структуру, достаточные для предоставления доказательств этой деятельности». [31]

Записи могут вестись для сохранения корпоративной памяти организации или для выполнения юридических, фискальных или подотчетных требований, предъявляемых к организации. Уиллис выразил мнение, что надлежащее управление деловыми записями и информацией обеспечивает «...шесть ключевых требований для хорошего корпоративного управления ...прозрачность; подотчетность; надлежащая правовая процедура; соответствие; выполнение требований законодательства и общего права; и безопасность личной и корпоративной информации». [32]

Семиотика

Майкл Бакленд классифицировал «информацию» с точки зрения ее использования: «информация как процесс», «информация как знание» и «информация как вещь». [33]

Бейнон-Дэвис [34] [35] объясняет многогранную концепцию информации в терминах знаков и сигнально-знаковых систем. Сами знаки можно рассматривать в терминах четырех взаимозависимых уровней, слоев или ветвей семиотики : прагматики, семантики, синтаксиса и эмпирики. Эти четыре слоя служат для соединения социального мира с одной стороны с физическим или техническим миром с другой.

Прагматика занимается целью коммуникации. Прагматика связывает вопрос знаков с контекстом, в котором знаки используются. В центре внимания прагматики — намерения живых агентов, лежащие в основе коммуникативного поведения. Другими словами, прагматика связывает язык с действием.

Семантика занимается значением сообщения, переданного в коммуникативном акте. Семантика рассматривает содержание коммуникации. Семантика изучает значение знаков — связь между знаками и поведением. Семантику можно рассматривать как изучение связи между символами и их референтами или концепциями — в частности, того, как знаки соотносятся с человеческим поведением.

Синтаксис занимается формализмом, используемым для представления сообщения. Синтаксис как область изучает форму коммуникации с точки зрения логики и грамматики знаковых систем. Синтаксис посвящен изучению формы, а не содержания знаков и знаковых систем.

Нильсен (2008) обсуждает связь между семиотикой и информацией в отношении словарей. Он вводит концепцию лексикографических информационных затрат и ссылается на усилия, которые пользователь словаря должен приложить, чтобы сначала найти, а затем понять данные, чтобы иметь возможность генерировать информацию.

Коммуникация обычно существует в контексте некоторой социальной ситуации. Социальная ситуация задает контекст для передаваемых намерений (прагматика) и формы коммуникации. В коммуникативной ситуации намерения выражаются посредством сообщений, которые включают в себя наборы взаимосвязанных знаков, взятых из языка, взаимно понимаемого агентами, участвующими в коммуникации. Взаимопонимание подразумевает, что вовлеченные агенты понимают выбранный язык с точки зрения его согласованного синтаксиса и семантики. Отправитель кодирует сообщение на языке и отправляет его в виде сигналов по некоторому каналу коммуникации (эмпирика). Выбранный канал коммуникации имеет неотъемлемые свойства, которые определяют результаты, такие как скорость, с которой может происходить коммуникация, и на каком расстоянии.

Физика и определенность

Существование информации о замкнутой системе является основным понятием как в классической физике , так и в квантовой механике , охватывая способность, реальную или теоретическую, агента предсказывать будущее состояние системы на основе знаний, собранных в ее прошлом и настоящем. Детерминизм — философская теория, утверждающая, что причинная детерминация может предсказывать все будущие события, [36] постулируя полностью предсказуемую вселенную, описанную классическим физиком Пьером-Симоном Лапласом как « следствие ее прошлого и причина ее будущего ». [37]

Квантовая физика вместо этого кодирует информацию как волновую функцию , что не позволяет наблюдателям напрямую идентифицировать все ее возможные измерения . До публикации теоремы Белла детерминисты примирялись с этим поведением, используя теории скрытых переменных , которые утверждали, что информация, необходимая для предсказания будущего функции, должна существовать, даже если она недоступна для людей; точка зрения, выдвинутая Альбертом Эйнштейном в утверждении, что « Бог не играет в кости ». [38]

Современная астрономия ссылается на механический смысл информации в информационном парадоксе черной дыры , утверждая, что, поскольку полное испарение черной дыры в излучение Хокинга не оставляет ничего, кроме расширяющегося облака однородных частиц, это приводит к невозможности восстановления любой информации о материи, изначально пересекшей горизонт событий , что нарушает как классические, так и квантовые утверждения против возможности уничтожения информации. [39] [40]

Применение информационного исследования

Информационный цикл (рассматриваемый в целом или в его отдельных компонентах) представляет большой интерес для информационных технологий , информационных систем , а также информационной науки . Эти области имеют дело с процессами и методами, относящимися к сбору информации (через датчики ) и генерации (через вычисления , формулирование или композицию), обработке (включая кодирование, шифрование, сжатие, упаковку), передаче (включая все методы телекоммуникации ), представлению (включая методы визуализации / отображения ), хранению (например, магнитному или оптическому, включая голографические методы ) и т. д.

Визуализация информации (сокращенно InfoVis) основана на вычислениях и цифровом представлении данных и помогает пользователям распознавать закономерности и обнаруживать аномалии .

Информационная безопасность (сокращенно InfoSec) — это непрерывный процесс проявления должной осмотрительности для защиты информации и информационных систем от несанкционированного доступа, использования, раскрытия, уничтожения, изменения, нарушения или распространения с помощью алгоритмов и процедур, ориентированных на мониторинг и обнаружение, а также реагирование на инциденты и их устранение.

Анализ информации — это процесс проверки, преобразования и моделирования информации путем преобразования необработанных данных в применимые на практике знания для поддержки процесса принятия решений.

Качество информации (сокращенно InfoQ) — это потенциал набора данных для достижения определенной (научной или практической) цели с использованием заданного метода эмпирического анализа.

Информационная коммуникация представляет собой конвергенцию информатики, телекоммуникаций и аудиовизуальных средств массовой информации и контента.

Смотрите также

Ссылки

  1. ^ Джон Б. Андерсон; Рольф Джоннессон (1996). Понимание передачи информации . Ieee Press. ISBN 978-0471711209.
  2. ^ Хьюберт П. Йоки (2005). Теория информации, эволюция и происхождение жизни . Cambridge University Press. стр. 7. ISBN 978-0511546433.
  3. ^ Лучано Флориди (2010). Информация – Очень краткое введение. Oxford University Press. ISBN 978-0-19-160954-1.
  4. ^ Веблер, Форрест (25 февраля 2022 г.). «Измерение в эпоху информации». Информация . 13 (3): 111. doi : 10.3390/info13030111 .
  5. ^ abc "World_info_capacity_animation". YouTube . 11 июня 2011 г. Архивировано из оригинала 21 декабря 2021 г. Получено 1 мая 2017 г.
  6. ^ "DT&SC 4-5: Учебник по теории информации, онлайн-курс". YouTube . Калифорнийский университет. 2015.
  7. ^ abc Гильберт, Мартин; Лопес, Присцила (2011). «Технологические возможности мира по хранению, передаче и вычислению информации». Science . 332 (6025): 60–65. Bibcode :2011Sci...332...60H. doi : 10.1126/science.1200970 . PMID  21310967. S2CID  206531385.Бесплатный доступ к статье на martinhilbert.net/WorldInfoCapacity.html
  8. ^ Ортубер, Вольфганг (16 мая 2022 г.). «Мы можем определить область информации онлайн и, таким образом, глобально единообразно». Информация. 13(5), 256. https://doi.org/10.3390/info13050256 .
  9. ^ Оксфордский словарь английского языка , третье издание, 2009, полный текст
  10. ^ Бернхэм, К. П. и Андерсон Д. Р. (2002) Выбор модели и вывод на основе нескольких моделей: практический информационно-теоретический подход, второе издание (Springer Science, Нью-Йорк) ISBN 978-0-387-95364-9
  11. ^ F. Rieke; D. Warland; R Ruyter van Steveninck; W Bialek (1997). Spikes: Exploring the Neural Code . Издательство MIT. ISBN 978-0262681087.
  12. ^ Дельгадо-Бонал, Альфонсо; Мартин-Торрес, Хавьер (3 ноября 2016 г.). «Человеческое зрение определяется на основе теории информации». Scientific Reports . 6 (1): 36038. Bibcode :2016NatSR...636038D. doi :10.1038/srep36038. ISSN  2045-2322. PMC 5093619 . PMID  27808236. 
  13. ^ см. Хюльзенбек, Дж. П.; Ронквист, Ф.; Нильсен, Р.; Боллбек, Дж. П. (2001). «Байесовский вывод филогении и его влияние на эволюционную биологию». Science . 294 (5550): 2310–2314. Bibcode :2001Sci...294.2310H. doi :10.1126/science.1065889. PMID  11743192. S2CID  2138288.
  14. ^ Allikmets, Rando; Wasserman, Wyeth W.; Hutchinson, Amy; Smallwood, Philip; Nathans, Jeremy; Rogan, Peter K. (1998). "Thomas D. Schneider], Michael Dean (1998) Organization of the ABCR gene: analysis of promoter and splice junction sequences". Gene . 215 (1): 111–122. doi : 10.1016/s0378-1119(98)00269-8 . PMID  9666097.
  15. ^ Джейнс, ET (1957). «Теория информации и статистическая механика». Phys. Rev. 106 ( 4): 620. Bibcode :1957PhRv..106..620J. doi :10.1103/physrev.106.620. S2CID  17870175.
  16. ^ Беннетт, Чарльз Х.; Ли, Мин; Ма, Бин (2003). «Письма цепочек и эволюционные истории». Scientific American . 288 (6): 76–81. Bibcode : 2003SciAm.288f..76B. doi : 10.1038/scientificamerican0603-76. PMID  12764940. Архивировано из оригинала 7 октября 2007 г. Получено 11 марта 2008 г.
  17. ^ Дэвид Р. Андерсон (1 ноября 2003 г.). «Некоторые сведения о том, почему люди в эмпирических науках могут захотеть лучше понять методы теории информации» (PDF) . Архивировано из оригинала (PDF) 23 июля 2011 г. . Получено 23 июня 2010 г. .
  18. ^ Dusenbery, David B. (1992). Сенсорная экология . Нью-Йорк: WH Freeman. ISBN 978-0-7167-2333-2.
  19. ^ Виго, Р. (2011). «Репрезентативная информация: новое общее понятие и мера информации» (PDF) . Информационные науки . 181 (21): 4847–4859. doi :10.1016/j.ins.2011.05.020.
  20. ^ Виго, Р. (2013). «Сложность над неопределенностью в обобщенной репрезентативной теории информации (GRIT): чувствительная к структуре общая теория информации». Информация . 4 (1): 1–30. doi : 10.3390/info4010001 .
  21. ^ Виго, Р. (2014). Математические принципы человеческого концептуального поведения: структурная природа концептуального представления и обработки . Нью-Йорк и Лондон: Серия научной психологии, Routledge. ISBN 978-0415714365.
  22. ^ Гривз, Майкл (2006). Управление жизненным циклом продукта: движущая сила следующего поколения бережливого мышления . Нью-Йорк: McGraw Hill. С. 6–12. ISBN 0-07-145230-3.
  23. ^ Шеннон, Клод Э. (1949). Математическая теория связи .
  24. ^ Касагранде, Дэвид (1999). «Информация как глагол: переосмысление информации для когнитивных и экологических моделей» (PDF) . Журнал экологической антропологии . 3 (1): 4–13. doi : 10.5038/2162-4593.3.1.1 .
  25. ^ Бейтсон, Грегори (1972). Форма, субстанция и различие, в книге «Шаги к экологии разума» . Издательство Чикагского университета. С. 448–466.
  26. ^ Мизраджи, Э. (2021). «Биологические демоны Максвелла: изучение идей об обработке информации в биологических системах». Теория в биологических науках . 140 (3): 307–318. doi :10.1007/s12064-021-00354-6. PMC 8568868. PMID  34449033 . 
  27. ^ Симонсен, Бо Кранц. «Informationordbogen – vis begreb». Информацияsordbogen.dk . Проверено 1 мая 2017 г.
  28. ^ Тенденции отказов в большом количестве дисковых накопителей. Эдуардо Пинейро, Вольф-Дитрих Вебер и Луис Андре Баррозу
  29. ^ "Общий объем данных по всему миру 2010–2025". Statista . Получено 6 августа 2021 г. .
  30. ^ ИСО 15489
  31. ^ Комитет по электронным записям (февраль 1997 г.). «Руководство по управлению электронными записями с точки зрения архива» (PDF) . www.ica.org . Международный комитет по архивам. стр. 22 . Получено 9 февраля 2019 г. .
  32. ^ Уиллис, Энтони (1 августа 2005 г.). «Корпоративное управление и управление информацией и записями». Records Management Journal . 15 (2): 86–97. doi :10.1108/09565690510614238.
  33. ^ Бакленд, Майкл К. (июнь 1991 г.). «Информация как вещь». Журнал Американского общества информационной науки . 42 (5): 351–360. doi :10.1002/(SICI)1097-4571(199106)42:5<351::AID-ASI5>3.0.CO;2-3.
  34. ^ Бейнон-Дэвис, П. (2002). Информационные системы: введение в информатику в организациях . Бейзингсток, Великобритания: Palgrave. ISBN 978-0-333-96390-6.
  35. ^ Бейнон-Дэвис, П. (2009). Системы деловой информации . Basingstoke: Palgrave. ISBN 978-0-230-20368-6.
  36. ^ Эрнест Нагель (1999). "§V: Альтернативные описания физического состояния". Структура науки: проблемы в логике научного объяснения (2-е изд.). Хакетт. стр. 285–292. ISBN 978-0915144716. Теория является детерминированной тогда и только тогда, когда, учитывая ее переменные состояния для некоторого начального периода, теория логически определяет уникальный набор значений для этих переменных для любого другого периода.
  37. Лаплас, Пьер Симон, Философское эссе о вероятностях , переведенное на английский язык с оригинального французского 6-го издания Траскоттом, Ф. У. и Эмори, Ф. Л., Dover Publications (Нью-Йорк, 1951), стр. 4.
  38. Собрание трудов Альберта Эйнштейна, том 15: Берлинские годы: сочинения и переписка, июнь 1925 г. — май 1927 г. (дополнение к английскому переводу), стр. 403
  39. ^ Хокинг, Стивен (2006). Парадокс Хокинга. Discovery Channel . Архивировано из оригинала 2 августа 2013 года . Получено 13 августа 2013 года .
  40. До свидания, Деннис (12 августа 2013 г.). «Тайна черной дыры, завернутая в парадокс брандмауэра». The New York Times . Получено 12 августа 2013 г.

Дальнейшее чтение

Внешние ссылки