stringtranslate.com

Информация

Информация – это абстрактное понятие , обозначающее то, что способно информировать . На самом фундаментальном уровне информация относится к интерпретации (возможно, формальной ) того, что можно ощутить , или их абстракций . Можно сказать, что любой естественный процесс, который не является полностью случайным, и любая наблюдаемая закономерность в любой среде передает определенное количество информации. В то время как цифровые сигналы и другие данные используют дискретные знаки для передачи информации, другие явления и артефакты, такие как аналоговые сигналы , стихи , изображения , музыка или другие звуки , а также токи передают информацию в более непрерывной форме. [1] Информация — это не знание само по себе, а значение , которое может быть получено из представления посредством интерпретации. [2]

Понятие информации актуально или связано с различными концепциями, [3] включая ограничение , коммуникацию , контроль , данные , форму , образование , знание , значение , понимание , умственные стимулы , шаблон , восприятие , предложение , представление и энтропию .

Информация часто обрабатывается итеративно: данные, доступные на одном этапе, преобразуются в информацию, которую нужно интерпретировать и обрабатывать на следующем этапе. Например, в письменном тексте каждый символ или буква передает информацию, относящуюся к слову, частью которого оно является, каждое слово передает информацию, относящуюся к фразе, частью которой оно является, каждая фраза передает информацию, относящуюся к предложению, частью которого оно является, и так далее. до тех пор, пока на последнем этапе информация не будет интерпретирована и не станет знанием в данной области . В цифровом сигнале биты могут интерпретироваться в символы, буквы, цифры или структуры, которые передают информацию, доступную на следующем уровне. Ключевой характеристикой информации является то, что она подлежит интерпретации и обработке.

Получение информации из сигнала или сообщения можно рассматривать как разрешение двусмысленности или неопределенности , возникающих во время интерпретации закономерностей внутри сигнала или сообщения. [4]

Информация может быть структурирована как данные . Избыточные данные можно сжимать до оптимального размера, который является теоретическим пределом сжатия.

Информация, доступная посредством сбора данных, может быть получена путем анализа. Например, ресторан собирает данные о каждом заказе клиента. Эта информация может быть проанализирована для получения знаний, которые будут использованы, когда бизнес впоследствии захочет определить наиболее популярное или наименее популярное блюдо. [5]

Информация может передаваться во времени, посредством хранения данных , и в пространстве, посредством связи и телекоммуникаций . [6] Информация выражается либо в виде содержания сообщения , либо посредством прямого или косвенного наблюдения . То, что воспринимается , само по себе может быть истолковано как сообщение, и в этом смысле вся информация всегда передается как содержание сообщения.

Информация может быть закодирована в различные формы для передачи и интерпретации ( например, информация может быть закодирована в последовательность знаков или передана посредством сигнала ). Он также может быть зашифрован для безопасного хранения и передачи данных.

Неопределенность события измеряется вероятностью его наступления. Неопределенность обратно пропорциональна вероятности возникновения. Теория информации использует это в своих интересах, заключая, что более неопределенные события требуют больше информации для разрешения их неопределенности. Бит – типичная единица информации . Это «то, что уменьшает неопределенность вдвое». [7] Могут использоваться и другие единицы измерения, такие как nat . Например, информация, закодированная при одном «честном» подбрасывании монеты, равна log 2 (2/1) = 1 бит, а при двух честных подбрасываниях монеты — log 2 (4/1) = 2 бита. В статье Science 2011 года говорится, что 97% технологически хранимой информации уже было в цифровых битах в 2007 году и что 2002 год стал началом цифровой эпохи хранения информации (когда цифровая емкость хранения впервые обошла аналоговую). [8]

Точное определение информации и цифрового применения

Информация может быть точно определена теорией множеств:

«Информация – это выборка из области информации».

«Информационная область» — это набор, который отправитель и получатель информации должны знать перед обменом информацией. Например, цифровая информация состоит из строительных блоков, которые представляют собой числовые последовательности. Каждая числовая последовательность представляет собой выборку из своей области. Отправитель и получатель цифровой информации (числовых последовательностей) должны знать домен и двоичный формат каждой числовой последовательности перед обменом информацией. Определив числовые последовательности онлайн, это можно было бы использовать систематически и универсально. Перед обменом цифровой числовой последовательности может быть установлена ​​эффективная уникальная ссылка на ее онлайн-определение. Эта определенная онлайн цифровая информация (числовая последовательность) будет глобально сопоставимой и доступной для глобального поиска. [9]

Этимология

Английское слово «информация» происходит от среднефранцузского enformacion/informacion/information «уголовное расследование» и его этимона, латинского informationtiō(n) «концепция, обучение, создание». [10]

В английском языке «информация» — неисчисляемое существительное .

Теория информации

Теория информации — это научное исследование количественной оценки , хранения и передачи информации . Основу этой области положили работы Гарри Найквиста и Ральфа Хартли в 1920-х годах и Клода Шеннона в 1940-х годах. Эта область находится на стыке теории вероятностей , статистики , информатики, статистической механики , информационной инженерии и электротехники .

Ключевой мерой в теории информации является энтропия . Энтропия количественно определяет степень неопределенности, связанную со значением случайной величины или результатом случайного процесса . Например, определение результата честного подбрасывания монеты (с двумя равновероятными исходами) дает меньше информации (более низкая энтропия), чем определение результата броска игральной кости ( с шестью равновозможными исходами). Некоторыми другими важными показателями в теории информации являются взаимная информация , пропускная способность канала, показатели ошибок и относительная энтропия . Важные подполя теории информации включают исходное кодирование , теорию алгоритмической сложности , алгоритмическую теорию информации и теоретико-информационную безопасность .

Существует и другое мнение относительно универсального определения информации. Оно заключается в том, что само понятие менялось вместе со сменой различных исторических эпох, и чтобы найти такое определение, необходимо найти стандартные черты и закономерности этой трансформации. Например, исследователи в области информации Петриченко Е.А. и Семенова В.Г. на основе ретроспективного анализа изменений понятия информации дают следующее универсальное определение: «Информация – это форма передачи человеческого опыта (знаний)». По их мнению, изменение сущности понятия информации происходит после различных прорывных технологий передачи опыта (знаний), т.е. появления письменности, книгопечатания, первых энциклопедий, телеграфа, развития кибернетики, создание микропроцессора, Интернета, смартфонов и т. д. Каждая новая форма передачи опыта является синтезом предыдущих. Именно поэтому мы видим такое разнообразие определений информации, ведь по закону диалектики «отрицание-отрицание» все прежние представления об информации содержатся в «снятом» виде и в современном ее представлении. [11]

Приложения фундаментальных тем теории информации включают исходное кодирование/ сжатие данных (например, для ZIP-файлов ) и канальное кодирование/ обнаружение и исправление ошибок (например, для DSL ). Его влияние имело решающее значение для успеха миссий «Вояджера» в глубокий космос, изобретения компакт-дисков , возможности мобильных телефонов и развития Интернета. Теория также нашла применение в других областях, включая статистический вывод , [12] криптографию , нейробиологию , [13] восприятие , [14] лингвистику, эволюцию [15] и функции [16] молекулярных кодов ( биоинформатика ), теплофизику. , [17] квантовые вычисления , черные дыры , поиск информации , сбор разведданных , обнаружение плагиата , [18] распознавание образов , обнаружение аномалий [19] и даже создание произведений искусства.

В качестве сенсорного ввода

Часто информацию можно рассматривать как тип входных данных для организма или системы . Входы бывают двух видов; некоторые входные данные важны для функционирования организма (например, пища) или системы ( энергия ) сами по себе. В своей книге «Сенсорная экология» [20] биофизик Дэвид Б. Дюзенбери назвал эти факторы причинными факторами. Другие входные данные (информация) важны только потому, что они связаны с причинными входными данными и могут использоваться для прогнозирования возникновения причинных входных данных в более позднее время (и, возможно, в другом месте). Некоторая информация важна из-за связи с другой информацией, но в конечном итоге должна возникнуть связь с причинно-следственной связью.

На практике информация обычно переносится слабыми стимулами, которые должны быть обнаружены специализированными сенсорными системами и усилены за счет энергетических затрат, прежде чем они смогут стать функциональными для организма или системы. Например, свет в основном (но не только, например, растения могут расти в направлении источника света) является причинным фактором для растений, но для животных он предоставляет только информацию. Цветной свет, отраженный от цветка, слишком слаб для фотосинтеза, но зрительная система пчелы обнаруживает его, а нервная система пчелы использует эту информацию, чтобы направить пчелу к цветку, где пчела часто находит нектар или пыльцу, которые являются причинными входными данными. , пищевая функция.

Как представление и сложность

Когнитивист и прикладной математик Роналду Виго утверждает, что информация — это концепция, которая требует наличия как минимум двух связанных сущностей, чтобы иметь количественный смысл . Это любая размерно определенная категория объектов S и любое из ее подмножеств R. R, по сути, является представлением S или, другими словами, передает репрезентативную (и, следовательно, концептуальную) информацию о S. Затем Виго определяет количество информации, которую R передает о S, как скорость изменения сложности S всякий раз, когда объекты в R удаляются из S. В разделе «информация Виго» используются шаблон, инвариантность, сложность, представление и информация - пять фундаментальных конструкций универсальная наука – объединены новой математической структурой. [21] [22] [23] Помимо прочего, эта структура направлена ​​на преодоление ограничений информации Шеннона-Уивера при попытке охарактеризовать и измерить субъективную информацию.

В качестве замены потраченного впустую времени, энергии и материалов

Майкл Гривз предположил, что информация должна быть сосредоточена на том, что она делает, а не на определении того, что она собой представляет. Гривс предположил [24] , что информация может заменить потраченные впустую физические ресурсы, время, энергию и материалы для целенаправленных задач. Целенаправленные задачи можно разделить на две составляющие: наиболее экономически эффективное использование физических ресурсов: времени, энергии и материалов, а также дополнительное использование физических ресурсов, используемых задачей. Эта вторая категория по определению представляет собой растрату физических ресурсов. Информация не заменяет и не заменяет наиболее экономически эффективное использование физических ресурсов, но может использоваться для замены потраченных впустую физических ресурсов. Условием, при котором это происходит, является то, что стоимость информации меньше стоимости потраченных впустую физических ресурсов. Поскольку информация является неконкурентным благом, это может быть особенно полезно для повторяющихся задач. В производстве категория задач наиболее экономичного использования физических ресурсов называется бережливым производством.

Как влияние, ведущее к трансформации

Информация — это любой тип шаблона, который влияет на формирование или трансформацию других шаблонов. [25] [26] В этом смысле сознательному разуму нет необходимости воспринимать, а тем более ценить паттерн. Возьмем, к примеру, ДНК . Последовательность нуклеотидов — это закономерность, которая влияет на формирование и развитие организма без необходимости участия сознательного разума. Однако можно возразить, что сознательное определение человеком структуры, например нуклеотида, естественным образом предполагает сознательную обработку информации. Однако существование одноклеточных и многоклеточных организмов со сложной биохимией , приводящей, среди прочего, к существованию ферментов и полинуклеотидов, взаимодействующих между собой, поддерживающих биологический порядок и участвующих в развитии многоклеточных организмов, на миллионы лет предшествует появлению многоклеточных организмов. человеческого сознания и создание научной культуры, создавшей химическую номенклатуру.

Теория систем иногда, кажется, относится к информации в этом смысле, предполагая, что информация не обязательно связана с каким-либо сознательным разумом, а закономерности, циркулирующие (благодаря обратной связи ) в системе, можно назвать информацией. Другими словами, можно сказать, что информация в этом смысле — это нечто потенциально воспринимаемое как представление, хотя и не созданное и не представленное для этой цели. Например, Грегори Бейтсон определяет «информацию» как «разницу, которая имеет значение». [27]

Однако если предпосылка «влияния» подразумевает, что информация была воспринята сознательным разумом, а также интерпретирована им, конкретный контекст , связанный с этой интерпретацией, может вызвать преобразование информации в знание . Сложные определения как «информации», так и «знаний» затрудняют такой семантический и логический анализ, но условие «трансформации» является важным моментом в изучении информации, поскольку она связана со знаниями, особенно в бизнес-дисциплине управления знаниями . В этой практике используются инструменты и процессы, помогающие работнику умственного труда проводить исследования и принимать решения, включая такие шаги, как:

Стюарт (2001) утверждает, что преобразование информации в знания имеет решающее значение и лежит в основе создания стоимости и конкурентных преимуществ современного предприятия.

С биологической точки зрения Мизраджи [28] описал информацию как сущность, возникающую в результате взаимодействия паттернов с рецепторными системами (например: в молекулярных или нейронных рецепторах, способных взаимодействовать с конкретными паттернами, информация возникает в результате этих взаимодействий). Кроме того, он включил идею «информационных катализаторов», структур, в которых появляющаяся информация способствует переходу от распознавания образов к целенаправленному действию (например, специфическое превращение субстрата в продукт с помощью фермента или слуховая рецепция слов и постановка устного ответа)

Датский словарь информационных терминов [29] утверждает, что информация лишь дает ответ на поставленный вопрос. Дает ли ответ знания, зависит от информированного человека. Поэтому обобщенное определение понятия должно быть таким: «Информация» = Ответ на конкретный вопрос».

Когда Маршалл Маклюэн говорит о средствах массовой информации и их влиянии на человеческую культуру, он имеет в виду структуру артефактов , которые, в свою очередь, формируют наше поведение и мышление. Кроме того, в этом смысле феромоны часто называют «информацией».

Технологически опосредованная информация

В этих разделах используются измерения данных, а не информации, поскольку информацию нельзя измерить напрямую.

По состоянию на 2007 год

Подсчитано, что мировые технологические возможности хранения информации выросли с 2,6 (оптимально сжатых) эксабайт в 1986 году – что является информационным эквивалентом менее одного 730-МБ CD-ROM на человека (539 МБ на человека) – до 295 (оптимально сжатых) сжато) эксабайт в 2007 году. [8] Это информационный эквивалент почти 61 CD-ROM на человека в 2007 году. [6]

В 2007 году совокупные мировые технологические возможности получения информации через сети одностороннего вещания были информационным эквивалентом 174 газет на человека в день. [8]

В 2007 году совокупная эффективная способность мира обмениваться информацией через двусторонние телекоммуникационные сети была информационным эквивалентом 6 газет на человека в день. [6]

По оценкам, по состоянию на 2007 год около 90% всей новой информации является цифровой и в основном хранится на жестких дисках. [30]

По состоянию на 2020 год

По прогнозам, общий объем данных, создаваемых, захватываемых, копируемых и потребляемых во всем мире, будет быстро увеличиваться, достигнув 64,2 зеттабайт в 2020 году. По прогнозам, в течение следующих пяти лет, вплоть до 2025 года, объем создаваемых в глобальном масштабе данных вырастет до более чем 180 зеттабайт. [31]

Как записи

Записи представляют собой специализированные формы информации. По сути, записи — это информация, созданная сознательно или как побочные продукты деловой деятельности или транзакций и сохраняемая из-за своей ценности. В первую очередь их ценность состоит в том, что они служат свидетельством деятельности организации, но их также можно сохранить из-за их информационной ценности. Управление звуковыми записями [32] гарантирует сохранение целостности записей до тех пор, пока они необходимы.

Международный стандарт управления записями ISO 15489 определяет записи как «информацию, созданную, полученную и хранимую в качестве доказательства и информации организацией или лицом во исполнение юридических обязательств или в ходе деловых операций». [33] Комитет по электронным записям Международного комитета архивов (ICA) определил запись как «записанную информацию, произведенную или полученную в начале, проведении или завершении институциональной или индивидуальной деятельности, которая включает в себя содержание, контекст и структуру, достаточные для обеспечения доказательства деятельности». [34]

Записи могут вестись для сохранения корпоративной памяти об организации или для удовлетворения юридических, финансовых требований или требований подотчетности, предъявляемых к организации. Уиллис выразил мнение, что разумное управление деловыми записями и информацией обеспечивает «...шесть ключевых требований к хорошему корпоративному управлению ... прозрачность; подотчетность; надлежащая правовая процедура; соблюдение требований законодательства и общего права; и безопасность личной и корпоративной информации». ." [35]

Семиотика

Майкл Бакленд классифицировал «информацию» с точки зрения ее использования: «информация как процесс», «информация как знание» и «информация как вещь». [36]

Бейнон-Дэвис [37] [38] объясняет многогранную концепцию информации с точки зрения знаков и сигнально-знаковых систем. Сами знаки можно рассматривать с точки зрения четырех взаимозависимых уровней, слоев или ветвей семиотики : прагматики, семантики, синтаксиса и эмпирики. Эти четыре слоя служат для соединения социального мира, с одной стороны, с физическим или техническим миром, с другой.

Прагматика занимается целью общения. Прагматика связывает проблему знаков с контекстом, в котором знаки используются. В центре внимания прагматики находятся намерения живых агентов, лежащие в основе коммуникативного поведения. Другими словами, прагматика связывает язык с действием.

Семантика связана со значением сообщения, передаваемого в коммуникативном акте. Семантика рассматривает содержание общения. Семантика – это изучение значения знаков – связи между знаками и поведением. Семантику можно рассматривать как исследование связи между символами и их референтами или понятиями, особенно того, как знаки связаны с поведением человека.

Синтаксис связан с формализмом, используемым для представления сообщения. Синтаксис как область изучает форму общения с точки зрения логики и грамматики знаковых систем. Синтаксис посвящен изучению формы, а не содержания знаков и знаковых систем.

Нильсен (2008) обсуждает взаимосвязь между семиотикой и информацией применительно к словарям. Он вводит концепцию стоимости лексикографической информации и обращается к усилиям, которые пользователь словаря должен приложить, чтобы сначала найти, а затем понять данные, чтобы они могли генерировать информацию.

Общение обычно существует в контексте некоторой социальной ситуации. Социальная ситуация задает контекст выражаемых намерений (прагматика) и форму общения. В коммуникативной ситуации намерения выражаются посредством сообщений, которые представляют собой совокупность взаимосвязанных знаков, взятых из языка, взаимно понятного агентам, участвующим в коммуникации. Взаимопонимание подразумевает, что участвующие агенты понимают выбранный язык с точки зрения его согласованного синтаксиса и семантики. Отправитель кодирует сообщение на языке и отправляет его в виде сигналов по некоторому каналу связи (эмпирика). Выбранный канал связи имеет присущие свойства, которые определяют результаты, такие как скорость, с которой может осуществляться связь, и на каком расстоянии.

Применение информационного исследования

Информационный цикл (рассматриваемый в целом или в его отдельных компонентах) представляет собой серьезную проблему для информационных технологий , информационных систем , а также информатики . Эти области имеют дело с процессами и методами, относящимися к сбору информации (через датчики ) и генерации (путем вычислений , формулирования или композиции), обработке (включая кодирование, шифрование, сжатие, упаковку), передаче (включая все методы телекоммуникаций ), представлению (включая методы визуализации / отображения ), хранение (например, магнитные или оптические, в том числе голографические методы ) и т. д.

Визуализация информации (сокращенно InfoVis) зависит от вычислений и цифрового представления данных и помогает пользователям распознавать закономерности и обнаруживать аномалии .

Информационная безопасность (сокращенно InfoSec) — это непрерывный процесс проявления должной осмотрительности для защиты информации и информационных систем от несанкционированного доступа, использования, раскрытия, уничтожения, изменения, нарушения или распространения с помощью алгоритмов и процедур, ориентированных на мониторинг и обнаружение, как а также реагирование на инциденты и ремонт.

Анализ информации — это процесс проверки, преобразования и моделирования информации путем преобразования необработанных данных в практические знания для поддержки процесса принятия решений.

Качество информации (сокращенно InfoQ) — это способность набора данных достигать конкретной (научной или практической) цели с использованием данного метода эмпирического анализа.

Информационная коммуникация представляет собой конвергенцию информатики, телекоммуникаций и аудиовизуальных средств массовой информации и контента.

Смотрите также

Рекомендации

  1. ^ Джон Б. Андерсон; Рольф Джоннессон (1996). Понимание передачи информации . Ииии Пресс. ISBN 978-0471711209.
  2. ^ Хьюберт П. Йоки (2005). Теория информации, эволюция и происхождение жизни . Издательство Кембриджского университета. п. 7. ISBN 978-0511546433.
  3. ^ Лучано Флориди (2010). Информация – очень краткое введение. Издательство Оксфордского университета. ISBN 978-0-19-160954-1.
  4. Уэблер, Форрест (25 февраля 2022 г.). «Измерение в век информации». Информация . 13 (3): 111. doi : 10.3390/info13030111 .
  5. ^ «В чем разница между данными и информацией?». БИДЖУС . 21 июля 2020 г. Проверено 5 августа 2021 г.
  6. ^ abc "World_info_capacity_animation". YouTube . 11 июня 2011 г. Архивировано из оригинала 21 декабря 2021 г. Проверено 1 мая 2017 г.
  7. ^ «DT&SC 4-5: Учебник по теории информации, онлайн-курс» . YouTube . Калифорнийский университет. 2015.
  8. ^ abc Гильберт, Мартин; Лопес, Присцила (2011). «Мировые технологические возможности для хранения, передачи и вычисления информации». Наука . 332 (6025): 60–65. Бибкод : 2011Sci...332...60H. дои : 10.1126/science.1200970 . PMID  21310967. S2CID  206531385.Бесплатный доступ к статье на martinhilbert.net/WorldInfoCapacity.html.
  9. Ортубер, Вольфганг (16 мая 2022 г.). «Мы можем определить область информации в Интернете и, следовательно, глобально единообразно». Информация. 13(5), 256. https://doi.org/10.3390/info13050256.
  10. ^ Оксфордский словарь английского языка , третье издание, 2009 г., полный текст
  11. ^ Семенова, Вероника; Петриченко, Евгений (2022). «Информация: история понятия, его настоящее и будущее». Университет Известий. Северо-Кавказский регион. Серия: Общественные науки . 1 (213): 16–26. дои : 10.18522/2687-0770-2022-1-16-26. ISSN  2687-0770. S2CID  249796993.
  12. ^ Бернхэм, К.П. и Андерсон Д.Р. (2002) Выбор модели и многомодельный вывод: практический информационно-теоретический подход, второе издание (Springer Science, Нью-Йорк) ISBN 978-0-387-95364-9
  13. ^ Ф. Рике; Д. Варланд; Р Рюйтер ван Стивенинк; В Бялек (1997). Спайкс: исследование нейронного кода . Пресса МТИ. ISBN 978-0262681087.
  14. ^ Дельгадо-Бональ, Альфонсо; Мартин-Торрес, Хавьер (3 ноября 2016 г.). «Человеческое зрение определяется на основе теории информации». Научные отчеты . 6 (1): 36038. Бибкод : 2016NatSR...636038D. дои : 10.1038/srep36038. ISSN  2045-2322. ПМК 5093619 . ПМИД  27808236. 
  15. ^ см.; Хюльзенбек, JP; Ронквист, Ф.; Нильсен, Р.; Болбак, JP (2001). «Байесовский вывод филогении и его влияние на эволюционную биологию». Наука . 294 (5550): 2310–2314. Бибкод : 2001Sci...294.2310H. дои : 10.1126/science.1065889. PMID  11743192. S2CID  2138288.
  16. ^ Алликметс, Рандо; Вассерман, Уайет В.; Хатчинсон, Эми; Смоллвуд, Филип; Натанс, Джереми; Роган, Питер К. (1998). «Томас Д. Шнайдер], Майкл Дин (1998) Организация гена ABCR: анализ последовательностей промотора и сплайсингового соединения». Джин . 215 (1): 111–122. дои : 10.1016/s0378-1119(98)00269-8 . ПМИД  9666097.
  17. ^ Джейнс, ET (1957). «Теория информации и статистическая механика». Физ. Преподобный . 106 (4): 620. Бибкод : 1957PhRv..106..620J. doi : 10.1103/physrev.106.620. S2CID  17870175.
  18. ^ Беннетт, Чарльз Х.; Ли, Мин; Ма, Бин (2003). «Письма счастья и эволюционные истории». Научный американец . 288 (6): 76–81. Бибкод : 2003SciAm.288f..76B. doi : 10.1038/scientificamerican0603-76. PMID  12764940. Архивировано из оригинала 7 октября 2007 года . Проверено 11 марта 2008 г.
  19. ^ Дэвид Р. Андерсон (1 ноября 2003 г.). «Некоторые сведения о том, почему люди, занимающиеся эмпирическими науками, могут захотеть лучше понять методы теории информации» (PDF) . Архивировано из оригинала (PDF) 23 июля 2011 года . Проверено 23 июня 2010 г.
  20. ^ Дюсенбери, Дэвид Б. (1992). Сенсорная экология . Нью-Йорк: WH Freeman. ISBN 978-0-7167-2333-2.
  21. ^ Виго, Р. (2011). «Представительная информация: новое общее понятие и мера информации» (PDF) . Информационные науки . 181 (21): 4847–4859. doi : 10.1016/j.ins.2011.05.020.
  22. ^ Виго, Р. (2013). «Сложность по сравнению с неопределенностью в обобщенной репрезентативной теории информации (GRIT): структурно-чувствительная общая теория информации». Информация . 4 (1): 1–30. дои : 10.3390/info4010001 .
  23. ^ Виго, Р. (2014). Математические принципы концептуального поведения человека: структурная природа концептуального представления и обработки . Нью-Йорк и Лондон: Серия по научной психологии, Routledge. ISBN 978-0415714365.
  24. ^ Гривс, Майкл (2006). Управление жизненным циклом продукта: развитие бережливого мышления следующего поколения . Нью-Йорк: МакГроу Хилл. стр. 6–12. ISBN 0-07-145230-3.
  25. ^ Шеннон, Клод Э. (1949). Математическая теория связи .
  26. ^ Касагранде, Дэвид (1999). «Информация как глагол: новая концепция информации для когнитивных и экологических моделей» (PDF) . Журнал экологической антропологии . 3 (1): 4–13. дои : 10.5038/2162-4593.3.1.1 .
  27. ^ Бейтсон, Грегори (1972). Форма, субстанция и различие: шаги к экологии разума . Издательство Чикагского университета. стр. 448–466.
  28. ^ Мизраджи, Э. (2021). «Биологические демоны Максвелла: исследование идей об обработке информации в биологических системах». Теория в биологических науках . 140 (3): 307–318. дои : 10.1007/s12064-021-00354-6. ПМЦ 8568868 . ПМИД  34449033. 
  29. ^ Симонсен, Бо Кранц. «Информацияordbogen – vis begreb». Информацияsordbogen.dk . Проверено 1 мая 2017 г.
  30. ^ Тенденции сбоев в популяции больших дисков. Эдуардо Пиньейру, Вольф-Дитрих Вебер и Луис Андре Баррозу
  31. ^ «Общий объем данных по всему миру в 2010–2025 гг.» Статистика . Проверено 6 августа 2021 г.
  32. ^ "Что такое управление записями?" . Проверено 29 января 2021 г.
  33. ^ ИСО 15489
  34. ^ Комитет по электронным записям (февраль 1997 г.). «Руководство по управлению электронными записями с точки зрения архива» (PDF) . www.ica.org . Международный комитет архивов. п. 22 . Проверено 9 февраля 2019 г.
  35. Уиллис, Энтони (1 августа 2005 г.). «Корпоративное управление и управление информацией и записями». Журнал управления записями . 15 (2): 86–97. дои : 10.1108/09565690510614238.
  36. ^ Бакленд, Майкл К. (июнь 1991 г.). «Информация как вещь». Журнал Американского общества информатики . 42 (5): 351–360. doi :10.1002/(SICI)1097-4571(199106)42:5<351::AID-ASI5>3.0.CO;2-3.
  37. ^ Бейнон-Дэвис, П. (2002). Информационные системы: введение в информатику в организациях . Бейзингсток, Великобритания: Пэлгрейв. ISBN 978-0-333-96390-6.
  38. ^ Бейнон-Дэвис, П. (2009). Бизнес-информационные системы . Бейзингсток: Пэлгрейв. ISBN 978-0-230-20368-6.

дальнейшее чтение

Внешние ссылки