stringtranslate.com

Кусочек

Бит это самая базовая единица информации в вычислительной технике и цифровой связи . Название является производным от binary digit (двоичная цифра) . [1] Бит представляет логическое состояние с одним из двух возможных значений . Эти значения чаще всего представляются как « 1 » или « 0 » , но также широко используются и другие представления, такие как true / false (истина/ложь) , yes / no ( да/ нет) , on / off ( вкл / выкл ) или +/− .

Связь между этими значениями и физическими состояниями базового хранилища или устройства является вопросом соглашения, и различные назначения могут использоваться даже в пределах одного устройства или программы . Физически это может быть реализовано с помощью устройства с двумя состояниями.

Непрерывная группа двоичных цифр обычно называется битовой строкой , битовым вектором или одномерным (или многомерным) битовым массивом . Группа из восьми бит называется одним  байтом , но исторически размер байта не был строго определен. [2] Часто половинные, полные, двойные и учетверенные слова состоят из числа байтов, которое является низкой степенью двойки. Строка из четырех бит обычно называется полубайтом .

В теории информации один бит — это информационная энтропия случайной двоичной величины, которая с равной вероятностью равна 0 или 1, [3] или информация, которая получается, когда значение такой переменной становится известным. [4] [5] Как единица информации , бит также известен как шеннон , [6] названный в честь Клода Э. Шеннона .

Символом двоичной цифры является либо «бит», согласно стандарту IEC 80000-13 :2008, либо строчная буква «b», согласно стандарту IEEE 1541-2002 . Использование последнего может создать путаницу с заглавной буквой «B», которая является международным стандартным символом для байта.

История

Кодирование данных дискретными битами использовалось в перфокартах, изобретенных Базилем Бушоном и Жаном-Батистом Фальконом (1732), разработанных Жозефом Мари Жаккаром (1804) и позднее принятых Семеном Корсаковым , Чарльзом Бэббиджем , Германом Холлеритом и ранними производителями компьютеров, такими как IBM . Вариантом этой идеи была перфорированная бумажная лента . Во всех этих системах носитель (карта или лента) концептуально нес массив позиций отверстий; каждая позиция могла быть либо пробита, либо нет, таким образом перенося один бит информации. Кодирование текста битами также использовалось в азбуке Морзе (1844) и ранних цифровых коммуникационных машинах, таких как телетайпы и биржевые тиккеры (1870).

Ральф Хартли предложил использовать логарифмическую меру информации в 1928 году. [7] Клод Э. Шеннон впервые использовал слово «бит» в своей основополагающей статье 1948 года « Математическая теория связи ». [8] [9] [10] Он приписал его происхождение Джону У. Тьюки , который написал служебную записку Bell Labs 9 января 1947 года, в которой он сократил «двоичную информационную цифру» до просто «бит». [8]

Физическое представление

Бит может храниться цифровым устройством или другой физической системой, которая существует в одном из двух возможных различных состояний . Это могут быть два устойчивых состояния триггера , два положения электрического переключателя , два различных уровня напряжения или тока, допускаемых схемой , два различных уровня интенсивности света , два направления намагничивания или поляризации , ориентация обратимой двухцепочечной ДНК и т. д.

Биты могут быть реализованы в нескольких формах. В большинстве современных вычислительных устройств бит обычно представлен электрическим напряжением или импульсом тока , или электрическим состоянием триггерной схемы.

Для устройств, использующих положительную логику , цифровое значение 1 (или логическое значение true) представлено более положительным напряжением относительно представления 0. Различные семейства логики требуют разных напряжений, и допускаются вариации для учета старения компонентов и помехоустойчивости. Например, в транзисторно-транзисторной логике (TTL) и совместимых схемах цифровые значения 0 и 1 на выходе устройства представлены не выше 0,4 вольт и не ниже 2,6 вольт соответственно; в то время как входы TTL определены для распознавания 0,8 вольт или ниже как 0 и 2,2 вольт или выше как 1 .

Передача и обработка

Биты передаются по одному при последовательной передаче и несколькими битами при параллельной передаче . Побитовая операция опционально обрабатывает биты по одному за раз. Скорость передачи данных обычно измеряется в десятичных СИ, кратных единице бит в секунду (бит/с), например, кбит/с.

Хранилище

В самых ранних неэлектронных устройствах обработки информации, таких как ткацкий станок Жаккарда или аналитическая машина Бэббиджа , бит часто хранился как положение механического рычага или шестерни, или наличие или отсутствие отверстия в определенной точке бумажной карты или ленты . Первые электрические устройства для дискретной логики (такие как схемы управления лифтами и светофорами , телефонные коммутаторы и компьютер Конрада Цузе) представляли биты как состояния электрических реле , которые могли быть либо «открытыми», либо «закрытыми». Когда реле были заменены электронными лампами , начиная с 1940-х годов, разработчики компьютеров экспериментировали с различными методами хранения, такими как импульсы давления, перемещающиеся по ртутной линии задержки , заряды, хранящиеся на внутренней поверхности электронно-лучевой трубки , или непрозрачные пятна, напечатанные на стеклянных дисках с помощью фотолитографических методов.

В 1950-х и 1960-х годах эти методы были в значительной степени вытеснены магнитными запоминающими устройствами, такими как память на магнитных сердечниках , магнитные ленты , барабаны и диски , где бит был представлен полярностью намагничивания определенной области ферромагнитной пленки или изменением полярности с одного направления на другое. Тот же принцип был позже использован в памяти на магнитном пузыре, разработанной в 1980-х годах, и до сих пор встречается в различных предметах с магнитной полосой , таких как билеты метро и некоторые кредитные карты .

В современной полупроводниковой памяти , такой как динамическая память с произвольным доступом , два значения бита могут быть представлены двумя уровнями электрического заряда, хранящегося в конденсаторе . В некоторых типах программируемых логических матриц и постоянной памяти бит может быть представлен наличием или отсутствием проводящего пути в определенной точке цепи. В оптических дисках бит кодируется как наличие или отсутствие микроскопической ямки на отражающей поверхности. В одномерных штрихкодах биты кодируются как толщина чередующихся черных и белых линий.

Единица и символ

Бит не определен в Международной системе единиц (СИ). Однако Международная электротехническая комиссия выпустила стандарт IEC 60027 , в котором указано, что символом для двоичной цифры должен быть «бит», и он должен использоваться во всех кратных, например, «кбит» для килобита. [11] Однако строчная буква «b» также широко используется и была рекомендована стандартом IEEE 1541 (2002) . Напротив, заглавная буква «B» является стандартным и общепринятым символом для байта.

Несколько бит

Несколько битов могут быть выражены и представлены несколькими способами. Для удобства представления часто встречающихся групп битов в информационных технологиях традиционно использовались несколько единиц информации . Наиболее распространенной является единица байт , введенная Вернером Бухгольцем в июне 1956 года, которая исторически использовалась для представления группы битов, используемых для кодирования одного символа текста (пока не появилась многобайтовая кодировка UTF-8 ) в компьютере [2] [12] [13] [14] [15] и по этой причине она использовалась в качестве основного адресуемого элемента во многих компьютерных архитектурах . Тенденция в проектировании оборудования сошлась на наиболее распространенной реализации использования восьми бит на байт, как это широко используется сегодня. [ по состоянию на? ] Однако из-за неоднозначности опоры на базовую конструкцию оборудования единица октет была определена для явного обозначения последовательности из восьми бит.

Компьютеры обычно оперируют битами в группах фиксированного размера, условно называемых « словами ». Как и байт, количество бит в слове также зависит от конструкции оборудования и обычно составляет от 8 до 80 бит, а в некоторых специализированных компьютерах и того больше. В 21 веке розничные персональные или серверные компьютеры имеют размер слова 32 или 64 бита.

Международная система единиц определяет ряд десятичных префиксов для кратных стандартизированных единиц, которые обычно используются также с битом и байтом. Префиксы от кило (10 3 ) до йотты (10 24 ) увеличиваются на кратные одной тысяче, а соответствующие единицы — от килобита (кбит) до йоттабита (Ybit).

Информационная емкость и сжатие информации

Когда информационная емкость системы хранения или канала связи представлена ​​в битах или битах в секунду , это часто относится к двоичным цифрам, которые являются аппаратной емкостью компьютера для хранения двоичных данных ( 0 или 1 , вверх или вниз, текущий или нет и т. д.). [16] Информационная емкость системы хранения является лишь верхней границей количества информации, хранящейся в ней. Если два возможных значения одного бита хранения не являются одинаково вероятными, этот бит хранения содержит менее одного бита информации. Если значение полностью предсказуемо, то чтение этого значения не дает никакой информации вообще (ноль энтропийных битов, потому что не происходит разрешения неопределенности и, следовательно, никакая информация не доступна). Если компьютерный файл, который использует n  бит хранения, содержит только m  <  n  бит информации, то эта информация в принципе может быть закодирована примерно в m  битах, по крайней мере, в среднем. Этот принцип является основой технологии сжатия данных . Используя аналогию, аппаратные двоичные цифры относятся к объему доступного пространства для хранения (например, к количеству доступных ведер для хранения вещей), а информационное содержимое — к заполнению, которое имеет разные уровни детализации (тонкая или грубая, то есть сжатая или несжатая информация). Когда детализация тоньше — когда информация более сжата — то же ведро может вместить больше.

Например, по оценкам, совокупная технологическая емкость мира для хранения информации обеспечивает 1300 экзабайт аппаратных цифр. Однако, когда это пространство для хранения заполнено и соответствующий контент оптимально сжат, это представляет только 295 экзабайт информации. [17] При оптимальном сжатии результирующая пропускная способность приближается к информации Шеннона или информационной энтропии . [16]

Битовые вычисления

Некоторые побитовые инструкции компьютерного процессора (например, набор битов ) работают на уровне манипулирования битами, а не манипулирования данными, интерпретируемыми как совокупность битов.

В 1980-х годах, когда стали популярны растровые компьютерные дисплеи, некоторые компьютеры предоставляли специализированные инструкции по передаче битовых блоков для установки или копирования битов, соответствующих заданной прямоугольной области на экране.

В большинстве компьютеров и языков программирования, когда упоминается бит в группе битов, например байт или слово , он обычно указывается числом от 0 и выше, соответствующим его положению в байте или слове. Однако 0 может относиться как к самому значимому , так и к самому слабо значимому биту в зависимости от контекста.

Другие информационные единицы

Подобно крутящему моменту и энергии в физике, теоретико-информационная информация и объем хранилища данных имеют одинаковую размерность единиц измерения , но в общем случае нет смысла складывать, вычитать или иным образом объединять единицы математически, хотя одна может выступать в качестве границы другой.

Единицы информации, используемые в теории информации, включают шеннон (Sh), естественную единицу информации (nat) и хартли (Hart). Один шеннон — это максимальный объем информации, необходимый для указания состояния одного бита памяти. Они связаны соотношением 1 Sh ≈ 0,693 nat ≈ 0,301 Hart.

Некоторые авторы также определяют бинит как произвольную информационную единицу, эквивалентную некоторому фиксированному, но неопределенному числу бит. [18]

Смотрите также

Ссылки

  1. ^ Mackenzie, Charles E. (1980). Coded Character Sets, History and Development (PDF) . The Systems Programming Series (1-е изд.). Addison-Wesley Publishing Company, Inc. стр. x. ISBN 978-0-201-14460-4. LCCN  77-90165. Архивировано (PDF) из оригинала 26 мая 2016 г. Получено 25 августа 2019 г.
  2. ^ ab Bemer, Robert William (2000-08-08). "Почему байт 8 бит? Или это так?". Computer History Vignettes . Архивировано из оригинала 2017-04-03 . Получено 2017-04-03 . […] На основе компьютера STRETCH от IBM , обрабатывающего 64-символьные слова, делимые на группы по 8 (я разработал набор символов для него под руководством доктора Вернера Бухгольца , человека, который ВВЕДЁЛ термин " байт " для 8-битной группировки). […] IBM 360 использовал 8-битные символы, хотя и не ASCII напрямую. Таким образом, "байт" Бухгольца прижился везде. Мне самому это название не нравилось по многим причинам. […]
  3. ^ Андерсон, Джон Б.; Джоннессон, Рольф (2006), Понимание передачи информации
  4. ^ Хейкин, Саймон (2006), Цифровые коммуникации
  5. ^ Стандарт IEEE 260.1-2004
  6. ^ "Units: B". Архивировано из оригинала 2016-05-04.
  7. ^ Абрамсон, Норман (1963). Теория информации и кодирование . McGraw-Hill .
  8. ^ ab Shannon, Claude Elwood (июль 1948 г.). "Математическая теория связи" (PDF) . Bell System Technical Journal . 27 (3): 379–423. doi :10.1002/j.1538-7305.1948.tb01338.x. hdl : 11858/00-001M-0000-002C-4314-2 . Архивировано из оригинала (PDF) 15.07.1998. Выбор логарифмического основания соответствует выбору единицы измерения информации. Если используется основание 2, то полученные единицы можно назвать двоичными цифрами или, короче, битами , слово, предложенное Дж. У. Тьюки .
  9. Шеннон, Клод Элвуд (октябрь 1948 г.). «Математическая теория связи». Bell System Technical Journal . 27 (4): 623–666. doi :10.1002/j.1538-7305.1948.tb00917.x. hdl : 11858/00-001M-0000-002C-4314-2 .
  10. ^ Шеннон, Клод Элвуд ; Уивер, Уоррен (1949). Математическая теория связи (PDF) . Издательство Иллинойсского университета . ISBN 0-252-72548-4. Архивировано из оригинала (PDF) 15.07.1998.
  11. ^ Национальный институт стандартов и технологий (2008), Руководство по использованию Международной системы единиц . Онлайн-версия. Архивировано 3 июня 2016 года на Wayback Machine
  12. ^ Бухгольц, Вернер (1956-06-11). "7. Матрица сдвига" (PDF) . Система связей . IBM . стр. 5–6. Stretch Memo № 39G. Архивировано (PDF) из оригинала 2017-04-04 . Получено 2016-04-04 . […] Наиболее важным с точки зрения редактирования будет возможность обрабатывать любые символы или цифры длиной от 1 до 6 бит […] Матрица сдвига будет использоваться для преобразования 60-битного слова , поступающего из памяти параллельно, в символы или " байты ", как мы их назвали, для последовательной отправки в сумматор . 60 бит сбрасываются в магнитные сердечники на шести разных уровнях. Таким образом, если 1 выходит из позиции 9, она появляется во всех шести сердечниках ниже. […] Сумматор может принимать все или только некоторые биты. […] Предположим, что требуется работать с 4-битными десятичными цифрами , начиная справа. Сначала импульсируется 0-диагональ, отправляя шесть бит от 0 до 5, из которых сумматор принимает только первые четыре (0-3). Биты 4 и 5 игнорируются. Затем импульсируется 4-диагональ. Это отправляет биты от 4 до 9, из которых последние два снова игнорируются, и так далее. […] Так же просто использовать все шесть бит в алфавитно-цифровой работе или обрабатывать байты только одного бита для логического анализа или смещать байты на любое количество бит. […]
  13. ^ Бухгольц, Вернер (февраль 1977 г.). «Слово «байт» достигает зрелости...» Журнал Byte . 2 (2): 144. […] Первая ссылка, найденная в файлах, содержалась во внутренней записке, написанной в июне 1956 г. в первые дни разработки Stretch . Байт описывался как состоящий из любого количества параллельных битов от одного до шести. Таким образом, предполагалось, что байт имеет длину, соответствующую случаю. Его первое использование было в контексте оборудования ввода-вывода 1950-х годов, которое обрабатывало шесть битов за раз. Возможность перехода на 8-битные байты была рассмотрена в августе 1956 г. и вскоре после этого включена в конструкцию Stretch. Первое опубликованное упоминание этого термина произошло в 1959 году в статье «Обработка данных по битам и кускам» G A Blaauw , F P Brooks Jr и W Buchholz в IRE Transactions on Electronic Computers , июнь 1959 г., стр. 121. Понятия этой статьи были разработаны в главе 4 Planning a Computer System (Project Stretch) , под редакцией W Buchholz, McGraw-Hill Book Company (1962). Обоснование введения термина было объяснено там на стр. 40 следующим образом: Байт обозначает группу бит, используемых для кодирования символа, или количество бит, передаваемых параллельно на устройства ввода-вывода и из них. Здесь используется термин, отличный от символа , поскольку данный символ может быть представлен в разных приложениях более чем одним кодом, а разные коды могут использовать разное количество бит (т. е. разные размеры байтов). При передаче ввода-вывода группировка бит может быть совершенно произвольной и не иметь никакого отношения к фактическим символам. (Термин образован от bite , но изменен, чтобы избежать случайной мутации в bit .) System/360 переняла многие концепции Stretch, включая основные размеры байтов и слов, которые являются степенями числа 2. Однако в целях экономии размер байтов был зафиксирован на уровне максимум 8 бит, а адресация на уровне битов была заменена адресацией байтов. […]

  14. ^ Blaauw, Gerrit Anne ; Brooks, Jr., Frederick Phillips ; Buchholz, Werner (1962), "Глава 4: Естественные единицы данных" (PDF) , в Buchholz, Werner (ред.), Planning a Computer System – Project Stretch , McGraw-Hill Book Company, Inc. / The Maple Press Company, York, PA., стр. 39–40, LCCN  61-10466, архивировано из оригинала (PDF) 2017-04-03 , извлечено 2017-04-03
  15. ^ Бемер, Роберт Уильям (1959). «Предложение об обобщенном карточном коде из 256 символов». Сообщения ACM . 2 (9): 19–23. doi : 10.1145/368424.368435 . S2CID  36115735.
  16. ^ ab Информация в маленьких битах Информация в маленьких битах — это книга, выпущенная в рамках некоммерческого проекта по распространению информации IEEE Information Theory Society. Книга знакомит детей от 8 лет с Клодом Шенноном и основными концепциями Теории информации с помощью соотносимых историй из мультфильмов и упражнений по решению задач.
  17. ^ "Технологические возможности мира по хранению, передаче и вычислению информации" Архивировано 27 июля 2013 г. на Wayback Machine , в частности, вспомогательные онлайн-материалы Архивировано 31 мая 2011 г. на Wayback Machine , Мартин Гильберт и Присцила Лопес (2011), Science , 332(6025), 60-65; свободный доступ к статье здесь: martinhilbert.net/WorldInfoCapacity.html
  18. ^ Бхаттачарья, Амитабха (2005). Цифровая связь. Tata McGraw-Hill Education . ISBN 978-0-07059117-2. Архивировано из оригинала 2017-03-27.

Внешние ссылки