Точность (информатика)

редактировать

В информатике точность числовой величины - это мера детализации, в которой Количество выражено. Обычно это измеряется в битах, но иногда и в десятичных цифрах. Это связано с точностью в математике, которая описывает количество цифр, которые используются для выражения значения.

Некоторые из стандартных форматов точности:

Из них формат с восьмеричной точностью используется редко. Форматы одинарной и двойной точности наиболее широко используются и поддерживаются почти на всех платформах. Использование формата половинной точности увеличивается, особенно в области машинного обучения, поскольку многие алгоритмы машинного обучения изначально допускают ошибки.

Ошибка округления

Точность равна часто источник ошибок округления в вычислении. Количество битов, используемых для хранения числа, часто вызывает некоторую потерю точности. Примером может служить сохранение «sin (0.1)» в стандарте IEEE с плавающей запятой одинарной точности. Затем ошибка часто увеличивается, поскольку последующие вычисления производятся с использованием данных (хотя ее также можно уменьшить).

См. Также
Ссылки
Последняя правка сделана 2021-06-02 04:25:43
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте