stringtranslate.com

Точность (информатика)

В информатике точность числовой величины является мерой детализации, в которой эта величина выражается . Обычно это измеряется в битах, но иногда и десятичными цифрами. Это связано с точностью в математике , которая описывает количество цифр, используемых для выражения значения.

Некоторые из стандартизированных прецизионных форматов:

Из них формат восьмеричной точности используется редко. Форматы одинарной и двойной точности наиболее широко используются и поддерживаются практически на всех платформах. Использование формата половинной точности растет, особенно в области машинного обучения, поскольку многие алгоритмы машинного обучения по своей сути устойчивы к ошибкам.

Ошибка округления

Точность часто является источником ошибок округления в вычислениях . Количество битов, используемых для хранения числа, часто приводит к некоторой потере точности. Примером может быть сохранение «sin(0.1)» в стандарте IEEE с плавающей запятой одинарной точности. Ошибка часто увеличивается по мере того, как последующие вычисления выполняются с использованием данных (хотя ее также можно уменьшить).

Смотрите также

Рекомендации