stringtranslate.com

Недетерминированный алгоритм

В информатике и программировании недетерминированный алгоритм — это алгоритм , который даже для одних и тех же входных данных может демонстрировать разное поведение при разных запусках, в отличие от детерминированного алгоритма .

Различные модели вычислений приводят к различным причинам, по которым алгоритм может быть недетерминированным, и к различным способам оценки его производительности или правильности:

Понятие недетерминизма было введено Робертом У. Флойдом в 1967 году. [1]

Ссылки

  1. ^ Роберт В. Флойд (октябрь 1967 г.). «Недетерминированные алгоритмы». Журнал ACM . 14 (4): 636–644. doi : 10.1145/321420.321422 . S2CID  1990464.

Дальнейшее чтение