Информация — это абстрактное понятие , которое относится к чему-то, что имеет силу информировать . На самом фундаментальном уровне это относится к интерпретации (возможно, формальной ) того, что может быть воспринято , или их абстракций . Любой естественный процесс, который не является полностью случайным , и любая наблюдаемая закономерность в любой среде, можно сказать, передают некоторое количество информации. В то время как цифровые сигналы и другие данные используют дискретные знаки для передачи информации, другие явления и артефакты, такие как аналоговые сигналы , стихи , изображения , музыка или другие звуки , а также токи передают информацию в более непрерывной форме. [1] Информация — это не само знание , а значение , которое может быть получено из представления посредством интерпретации. [2]
Понятие информации релевантно или связано с различными понятиями, [3] включая ограничение , коммуникацию , контроль , данные , форму , образование , знание , значение , понимание , умственные стимулы , шаблон , восприятие , предложение , представление и энтропию .
Информация часто обрабатывается итеративно: данные, доступные на одном этапе, обрабатываются в информацию, которая будет интерпретирована и обработана на следующем этапе. Например, в письменном тексте каждый символ или буква передает информацию, относящуюся к слову, частью которого она является, каждое слово передает информацию, относящуюся к фразе, частью которой она является, каждая фраза передает информацию, относящуюся к предложению, частью которого она является, и так далее, пока на последнем этапе информация не будет интерпретирована и не станет знанием в данной области . В цифровом сигнале биты могут быть интерпретированы в символы, буквы, числа или структуры, которые передают информацию, доступную на следующем уровне выше. Ключевой характеристикой информации является то, что она подлежит интерпретации и обработке.
Получение информации из сигнала или сообщения можно рассматривать как разрешение неоднозначности или неопределенности , возникающей при интерпретации закономерностей в сигнале или сообщении. [4]
Информация может быть структурирована как данные . Избыточные данные могут быть сжаты до оптимального размера, который является теоретическим пределом сжатия.
Информация, доступная через сбор данных, может быть получена путем анализа. Например, ресторан собирает данные с каждого заказа клиента. Эта информация может быть проанализирована для получения знаний, которые используются, когда бизнес впоследствии хочет определить наиболее популярное или наименее популярное блюдо. [ необходима цитата ]
Информация может передаваться во времени, посредством хранения данных , и в пространстве, посредством коммуникации и телекоммуникаций . [5] Информация выражается либо как содержание сообщения , либо посредством прямого или косвенного наблюдения . То, что воспринимается, может быть истолковано как сообщение само по себе, и в этом смысле вся информация всегда передается как содержание сообщения.
Информация может быть закодирована в различных формах для передачи и интерпретации (например, информация может быть закодирована в последовательность знаков или передана посредством сигнала ). Она также может быть зашифрована для безопасного хранения и передачи.
Неопределенность события измеряется вероятностью его возникновения. Неопределенность обратно пропорциональна вероятности возникновения. Теория информации использует это преимущество, делая вывод, что более неопределенные события требуют больше информации для разрешения их неопределенности. Бит является типичной единицей информации . Это «то, что уменьшает неопределенность вдвое». [6] Могут использоваться и другие единицы, такие как nat . Например, информация, закодированная в одном «честном» подбрасывании монеты, составляет log 2 (2/1) = 1 бит, а в двух честных подбрасываниях монеты — log 2 (4/1) = 2 бита. В статье журнала Science за 2011 год подсчитано, что 97% технологически хранимой информации уже находились в цифровых битах в 2007 году, а 2002 год стал началом цифровой эры хранения информации (при этом цифровая емкость хранения впервые обошла аналоговую). [7]
Информацию можно точно определить с помощью теории множеств:
«Информация — это выборка из области информации».
«Домен информации» — это набор, который отправитель и получатель информации должны знать перед обменом информацией. Например, цифровая информация состоит из строительных блоков, которые все являются числовыми последовательностями. Каждая числовая последовательность представляет собой выборку из своего домена. Отправитель и получатель цифровой информации (числовых последовательностей) должны знать домен и двоичный формат каждой числовой последовательности перед обменом информацией. Определяя числовые последовательности онлайн, это будет систематически и универсально использоваться. Перед обменом цифровой числовой последовательностью может быть установлена эффективная уникальная ссылка на ее онлайн-определение. Эта онлайн-определенная цифровая информация (числовая последовательность) будет глобально сопоставимой и глобально доступной для поиска. [8]
Английское слово «information» происходит от среднефранцузского enformacion/informacion/information — «уголовное расследование» и его этимона, латинского informatiō(n) — «зачатие, обучение, создание». [9]
В английском языке «information» — неисчисляемое неисчисляемое существительное .
Теория информации — это научное исследование квантификации , хранения и передачи информации . Сама область была фундаментально создана работами Клода Шеннона в 1940-х годах, с более ранними вкладами Гарри Найквиста и Ральфа Хартли в 1920-х годах. [10] [11] Область находится на стыке теории вероятностей , статистики , компьютерных наук, статистической механики , информационной инженерии и электротехники .
Ключевой мерой в теории информации является энтропия . Энтропия количественно определяет количество неопределенности, связанной со значением случайной величины или результатом случайного процесса . Например, определение результата честного подбрасывания монеты (с двумя равновероятными результатами) дает меньше информации (более низкую энтропию), чем указание результата броска игральной кости ( с шестью равновероятными результатами). Некоторые другие важные меры в теории информации — это взаимная информация , пропускная способность канала, показатели ошибок и относительная энтропия . Важные подобласти теории информации включают кодирование источника , теорию алгоритмической сложности , алгоритмическую теорию информации и информационно-теоретическую безопасность .
Приложения фундаментальных тем теории информации включают кодирование источника/ сжатие данных (например, для файлов ZIP ), а также кодирование канала/ обнаружение и исправление ошибок (например, для DSL ). Его влияние имело решающее значение для успеха миссий Voyager в дальний космос, изобретения компакт-диска , осуществимости мобильных телефонов и развития Интернета. Теория также нашла применение в других областях, включая статистический вывод , [12] криптографию , нейробиологию , [13] восприятие , [14] лингвистику, эволюцию [15] и функцию [16] молекулярных кодов ( биоинформатика ), теплофизику , [17] квантовые вычисления , черные дыры , поиск информации , сбор разведданных , обнаружение плагиата , [18] распознавание образов , обнаружение аномалий [19] и даже создание произведений искусства.
Часто информацию можно рассматривать как тип входных данных для организма или системы . Входные данные бывают двух видов; некоторые входные данные важны для функционирования организма (например, пища) или системы ( энергия ) сами по себе. В своей книге «Сенсорная экология» [20] биофизик Дэвид Б. Дьюзенбери назвал их каузальными входными данными. Другие входные данные (информация) важны только потому, что они связаны с каузальными входными данными и могут использоваться для прогнозирования возникновения каузальных входных данных в более позднее время (и, возможно, в другом месте). Некоторая информация важна из-за ассоциации с другой информацией, но в конечном итоге должна быть связь с каузальными входными данными.
На практике информация обычно передается слабыми стимулами, которые должны быть обнаружены специализированными сенсорными системами и усилены энергетическими входами, прежде чем они смогут стать функциональными для организма или системы. Например, свет в основном (но не только, например, растения могут расти в направлении источника света) является причинным входом для растений, но для животных он только предоставляет информацию. Цветной свет, отраженный от цветка, слишком слаб для фотосинтеза, но зрительная система пчелы обнаруживает его, а нервная система пчелы использует эту информацию, чтобы направить пчелу к цветку, где пчела часто находит нектар или пыльцу, которые являются причинными входами, питательной функцией.
Когнитивист и прикладной математик Роналдо Виго утверждает , что информация — это концепция, которая требует по крайней мере двух связанных сущностей для того, чтобы иметь количественный смысл. Это любая размерно определенная категория объектов S и любое из ее подмножеств R. R, по сути, является представлением S или, другими словами, передает репрезентативную (и, следовательно, концептуальную) информацию о S. Затем Виго определяет объем информации, которую R передает о S, как скорость изменения сложности S всякий раз, когда объекты в R удаляются из S. В рамках «информации Виго» паттерн, инвариантность, сложность, представление и информация — пять фундаментальных конструкций универсальной науки — объединяются в рамках новой математической структуры. [21] [22] [23] Среди прочего, структура направлена на преодоление ограничений информации Шеннона-Уивера при попытке охарактеризовать и измерить субъективную информацию.
Информация — это любой тип шаблона, который влияет на формирование или преобразование других шаблонов. [24] [25] В этом смысле нет необходимости в сознательном разуме для восприятия, а тем более оценки шаблона. Рассмотрим, например, ДНК . Последовательность нуклеотидов — это шаблон, который влияет на формирование и развитие организма без какой-либо необходимости в сознательном разуме. Однако можно утверждать, что для человека осознанное определение шаблона, например нуклеотида, естественно подразумевает сознательную обработку информации. Однако существование одноклеточных и многоклеточных организмов со сложной биохимией , которая приводит, среди прочего, к существованию ферментов и полинуклеотидов, которые взаимодействуют, поддерживая биологический порядок и участвуя в развитии многоклеточных организмов, на миллионы лет предшествует возникновению человеческого сознания и созданию научной культуры, которая создала химическую номенклатуру.
Теория систем иногда, кажется, ссылается на информацию в этом смысле, предполагая, что информация не обязательно включает в себя какой-либо сознательный разум, и шаблоны, циркулирующие (благодаря обратной связи ) в системе, могут быть названы информацией. Другими словами, можно сказать, что информация в этом смысле является чем-то потенциально воспринимаемым как представление, хотя и не созданным или представленным для этой цели. Например, Грегори Бейтсон определяет «информацию» как «различие, которое создает различие». [26]
Однако, если предпосылка «влияния» подразумевает, что информация была воспринята сознательным умом и также интерпретирована им, то конкретный контекст, связанный с этой интерпретацией, может вызвать преобразование информации в знание . Сложные определения как «информации», так и «знаний» затрудняют такой семантический и логический анализ, но условие «преобразования» является важным моментом в изучении информации, поскольку она связана со знанием, особенно в деловой дисциплине управления знаниями . В этой практике инструменты и процессы используются для оказания помощи работнику знаний в проведении исследований и принятии решений, включая такие шаги, как:
Стюарт (2001) утверждает, что преобразование информации в знания имеет решающее значение, поскольку лежит в основе создания стоимости и конкурентного преимущества современного предприятия.
В биологической структуре Мизраджи [27] описал информацию как сущность, возникающую из взаимодействия паттернов с рецепторными системами (например: в молекулярных или нейронных рецепторах, способных взаимодействовать с определенными паттернами, информация возникает из этих взаимодействий). Кроме того, он включил идею «катализаторов информации», структур, где возникающая информация способствует переходу от распознавания паттернов к целенаправленному действию (например, специфическое преобразование субстрата в продукт ферментом или слуховое восприятие слов и производство орального ответа)
Датский словарь информационных терминов [28] утверждает, что информация дает ответ только на поставленный вопрос. Дает ли ответ знание, зависит от информированного человека. Поэтому обобщенное определение концепции должно быть таким: «Информация» = ответ на конкретный вопрос».
Когда Маршалл Маклюэн говорит о медиа и их влиянии на человеческие культуры, он имеет в виду структуру артефактов , которые в свою очередь формируют наше поведение и мышление. Также феромоны часто называют «информацией» в этом смысле.
В этих разделах используются измерения данных, а не информации, поскольку информацию невозможно измерить напрямую.
Подсчитано, что мировая технологическая емкость для хранения информации выросла с 2,6 (оптимально сжатых) эксабайт в 1986 году, что является информационным эквивалентом менее одного CD-ROM объемом 730 МБ на человека (539 МБ на человека), до 295 (оптимально сжатых) эксабайт в 2007 году. [7] Это информационный эквивалент почти 61 CD-ROM на человека в 2007 году. [5]
Совокупный технологический потенциал мира по получению информации через односторонние вещательные сети составил информационный эквивалент 174 газет на человека в день в 2007 году. [7]
Совокупная эффективная мировая способность обмениваться информацией через двусторонние телекоммуникационные сети была информационным эквивалентом 6 газет на человека в день в 2007 году. [5]
По оценкам, по состоянию на 2007 год 90% всей новой информации является цифровой и в основном хранится на жестких дисках. [29]
Прогнозируется, что общий объем данных, созданных, собранных, скопированных и потребленных во всем мире, будет быстро расти и достигнет 64,2 зеттабайт в 2020 году. В течение следующих пяти лет, вплоть до 2025 года, ожидается, что объем создания данных во всем мире вырастет до более чем 180 зеттабайт. [30]
Записи — это специализированные формы информации. По сути, записи — это информация, созданная сознательно или как побочный продукт деловой активности или транзакций и сохраняемая из-за ее ценности. В первую очередь, их ценность заключается в том, что они являются доказательством деятельности организации, но они также могут сохраняться из-за их информационной ценности. Надежное управление записями гарантирует, что целостность записей сохраняется до тех пор, пока они требуются. [ необходима цитата ]
Международный стандарт по управлению записями ISO 15489 определяет записи как «информацию, созданную, полученную и поддерживаемую в качестве доказательства и информации организацией или лицом в соответствии с правовыми обязательствами или в ходе деловых операций». [31] Комитет по электронным записям Международного комитета архивов (ICA) определил запись как «записанную информацию, созданную или полученную при инициировании, проведении или завершении институциональной или индивидуальной деятельности, которая включает содержание, контекст и структуру, достаточные для предоставления доказательств этой деятельности». [32]
Записи могут вестись для сохранения корпоративной памяти организации или для выполнения юридических, фискальных или подотчетных требований, предъявляемых к организации. Уиллис выразил мнение, что надлежащее управление деловыми записями и информацией обеспечивает «...шесть ключевых требований для хорошего корпоративного управления ...прозрачность; подотчетность; надлежащая правовая процедура; соответствие; выполнение требований законодательства и общего права; и безопасность личной и корпоративной информации». [33]
Майкл Бакленд классифицировал «информацию» с точки зрения ее использования: «информация как процесс», «информация как знание» и «информация как вещь». [34]
Бейнон-Дэвис [35] [36] объясняет многогранную концепцию информации в терминах знаков и сигнально-знаковых систем. Сами знаки можно рассматривать в терминах четырех взаимозависимых уровней, слоев или ветвей семиотики : прагматики, семантики, синтаксиса и эмпирики. Эти четыре слоя служат для связи социального мира с одной стороны с физическим или техническим миром с другой.
Прагматика занимается целью коммуникации. Прагматика связывает вопрос знаков с контекстом, в котором знаки используются. В центре внимания прагматики — намерения живых агентов, лежащие в основе коммуникативного поведения. Другими словами, прагматика связывает язык с действием.
Семантика занимается значением сообщения, переданного в коммуникативном акте. Семантика рассматривает содержание коммуникации. Семантика изучает значение знаков — связь между знаками и поведением. Семантику можно рассматривать как изучение связи между символами и их референтами или понятиями — в частности, того, как знаки соотносятся с человеческим поведением.
Синтаксис занимается формализмом, используемым для представления сообщения. Синтаксис как область изучает форму коммуникации с точки зрения логики и грамматики знаковых систем. Синтаксис посвящен изучению формы, а не содержания знаков и знаковых систем.
Нильсен (2008) обсуждает связь между семиотикой и информацией в отношении словарей. Он вводит концепцию лексикографических информационных затрат и ссылается на усилия, которые пользователь словаря должен приложить, чтобы сначала найти, а затем понять данные, чтобы иметь возможность генерировать информацию.
Коммуникация обычно существует в контексте некоторой социальной ситуации. Социальная ситуация задает контекст для передаваемых намерений (прагматика) и формы коммуникации. В коммуникативной ситуации намерения выражаются посредством сообщений, которые включают в себя наборы взаимосвязанных знаков, взятых из языка, взаимно понимаемого агентами, участвующими в коммуникации. Взаимопонимание подразумевает, что вовлеченные агенты понимают выбранный язык с точки зрения его согласованного синтаксиса и семантики. Отправитель кодирует сообщение на языке и отправляет его в виде сигналов по некоторому каналу коммуникации (эмпирика). Выбранный канал коммуникации имеет неотъемлемые свойства, которые определяют результаты, такие как скорость, с которой может происходить коммуникация, и на каком расстоянии.
Существование информации о замкнутой системе является основным понятием как в классической физике , так и в квантовой механике , охватывая способность, реальную или теоретическую, агента предсказывать будущее состояние системы на основе знаний, собранных в ее прошлом и настоящем. Детерминизм — философская теория, утверждающая, что причинная детерминация может предсказывать все будущие события, [37] постулируя полностью предсказуемую вселенную, описанную классическим физиком Пьером-Симоном Лапласом как « следствие ее прошлого и причина ее будущего ». [38]
Квантовая физика вместо этого кодирует информацию как волновую функцию , что не позволяет наблюдателям напрямую идентифицировать все ее возможные измерения . До публикации теоремы Белла детерминисты примирялись с этим поведением, используя теории скрытых переменных , которые утверждали, что информация, необходимая для предсказания будущего функции, должна существовать, даже если она недоступна для людей; точка зрения, выдвинутая Альбертом Эйнштейном в утверждении, что « Бог не играет в кости ». [39]
Современная астрономия ссылается на механический смысл информации в информационном парадоксе черной дыры , утверждая, что, поскольку полное испарение черной дыры в излучение Хокинга не оставляет ничего, кроме расширяющегося облака однородных частиц, это приводит к невозможности восстановления любой информации о материи, изначально пересекшей горизонт событий , что нарушает как классические, так и квантовые утверждения против возможности уничтожения информации. [40] [41]
Информационный цикл (рассматриваемый в целом или в его отдельных компонентах) представляет большой интерес для информационных технологий , информационных систем , а также информационной науки . Эти области имеют дело с теми процессами и методами, которые относятся к сбору информации (через датчики ) и генерации (через вычисления , формулирование или композицию), обработке (включая кодирование, шифрование, сжатие, упаковку), передаче (включая все методы телекоммуникации ), представлению (включая методы визуализации / отображения ), хранению (например, магнитному или оптическому, включая голографические методы ) и т. д.
Визуализация информации (сокращенно InfoVis) основана на вычислениях и цифровом представлении данных и помогает пользователям распознавать закономерности и обнаруживать аномалии .
Информационная безопасность (сокращенно InfoSec) — это непрерывный процесс проявления должной осмотрительности для защиты информации и информационных систем от несанкционированного доступа, использования, раскрытия, уничтожения, изменения, нарушения или распространения с помощью алгоритмов и процедур, ориентированных на мониторинг и обнаружение, а также реагирование на инциденты и их устранение.
Анализ информации — это процесс проверки, преобразования и моделирования информации путем преобразования необработанных данных в применимые на практике знания для поддержки процесса принятия решений.
Качество информации (сокращенно InfoQ) — это потенциал набора данных для достижения определенной (научной или практической) цели с использованием заданного метода эмпирического анализа.
Информационная коммуникация представляет собой конвергенцию информатики, телекоммуникаций и аудиовизуальных средств массовой информации и контента.
Теория является детерминированной тогда и только тогда, когда, учитывая ее переменные состояния для некоторого начального периода, теория логически определяет уникальный набор значений для этих переменных для любого другого периода.