Влияние неопределенностей переменных на неопределенность основанной на них функции
В статистике распространение неопределенности (или распространение ошибки ) — это влияние неопределенностей переменных (или ошибок , точнее случайных ошибок ) на неопределенность основанной на них функции . Когда переменные представляют собой значения экспериментальных измерений, они имеют неопределенности из-за ограничений измерения (например, точности прибора ), которые распространяются из-за комбинации переменных в функции.
Неопределенность u может быть выражена разными способами. Ее можно определить по абсолютной ошибке Δ x . Неопределенности также можно определить с помощью относительной ошибки (Δx ) / x , которая обычно выражается в процентах. Чаще всего неопределенность величины выражается количественно через стандартное отклонение σ , которое представляет собой положительный квадратный корень из дисперсии . Значение величины и ее ошибка тогда выражаются как интервал x ± u . Однако наиболее общий способ охарактеризовать неопределенность — указать ее распределение вероятностей . Если распределение вероятностей переменной известно или можно предположить, теоретически можно получить любую ее статистику. В частности, можно вывести доверительные пределы для описания области, в которой может быть найдено истинное значение переменной. Например, доверительные пределы 68% для одномерной переменной, принадлежащей нормальному распределению, составляют примерно ± одно стандартное отклонение σ от центрального значения x , что означает, что область x ± σ будет охватывать истинное значение примерно в 68% случаев. случаи.
Если неопределенности коррелируют , то необходимо учитывать ковариацию . Корреляция может возникать из двух разных источников. Во-первых, ошибки измерения могут быть коррелированы. Во-вторых, когда основные значения коррелируют среди населения, неопределенности в средних группах будут коррелировать. [1]
В общем контексте, когда нелинейная функция изменяет неопределенные параметры (коррелированные или нет), стандартными инструментами для распространения неопределенности и вывода результирующего распределения вероятностей/статистики величин являются методы выборки из семейства методов Монте-Карло . [2] Для очень обширных данных или сложных функций расчет распространения ошибки может быть очень обширным, поэтому может потребоваться суррогатная модель [3] или стратегия параллельных вычислений [4] [5] [6] .
В некоторых частных случаях расчет распространения неопределенности можно выполнить с помощью упрощенных алгебраических процедур. Некоторые из этих сценариев описаны ниже.
Линейные комбинации
Пусть — набор из m функций, которые представляют собой линейные комбинации переменных с коэффициентами комбинации :![{\displaystyle \{f_{k}(x_{1},x_{2},\dots,x_{n})\}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle п}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle x_{1},x_{2},\dots,x_{n}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle A_{k1},A_{k2},\dots,A_{kn},(k=1,\dots,m)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle f_{k}=\sum _{i=1}^{n}A_{ki}x_{i},}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \mathbf {f} =\mathbf {A} \mathbf {x} .}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Также пусть матрица дисперсии-ковариации x = ( x 1 , ..., x n ) обозначается как и пусть среднее значение обозначается как :![{\displaystyle {\boldsymbol {\Sigma }}^{x}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle {\boldsymbol {\mu }}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle {\boldsymbol {\Sigma }}^{x}=E[(\mathbf {x} - {\boldsymbol {\mu }})\otimes (\mathbf {x} - {\boldsymbol {\mu } })]={\begin{pmatrix}\sigma _{1}^{2}&\sigma _{12}&\sigma _{13}&\cdots \\\sigma _{21}&\sigma _{ 2}^{2}&\sigma _{23}&\cdots \\\sigma _{31}&\sigma _{32}&\sigma _{3}^{2}&\cdots \\\vdots & \vdots &\vdots &\ddots \end{pmatrix}}={\begin{pmatrix}{\Sigma }_{11}^{x}&{\Sigma }_{12}^{x}&{\Sigma }_{13}^{x}&\cdots \\{\Sigma }_{21}^{x}&{\Sigma }_{22}^{x}&{\Sigma }_{23}^{ x}&\cdots \\{\Sigma }_{31}^{x}&{\Sigma }_{32}^{x}&{\Sigma }_{33}^{x}&\cdots \\ \vdots &\vdots &\vdots &\ddots \end{pmatrix}}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
внешний продуктТогда дисперсионно-ковариационная матрица f определяется выражением![{\displaystyle {\boldsymbol {\Sigma }}^{f}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle {\boldsymbol {\Sigma }}^{f}=E[(\mathbf {f} -E[\mathbf {f}])\otimes (\mathbf {f} -E[\mathbf {f} ])]=E[\mathbf {A} (\mathbf {x} - {\boldsymbol {\mu }})\otimes \mathbf {A} (\mathbf {x} - {\boldsymbol {\mu }}) ]=\mathbf {A} E[(\mathbf {x} - {\boldsymbol {\mu }})\otimes (\mathbf {x} - {\boldsymbol {\mu }})]\mathbf {A} ^ {\mathrm {T} }=\mathbf {A} {\boldsymbol {\Sigma }}^{x}\mathbf {A} ^{\mathrm {T} }.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
В обозначениях компонентов уравнение
![{\displaystyle {\boldsymbol {\Sigma }}^{f}=\mathbf {A} {\boldsymbol {\Sigma }}^{x}\mathbf {A} ^{\mathrm {T} }}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \Sigma _{ij}^{f}=\sum _{k}^{n}\sum _{l}^{n}A_{ik}{\Sigma }_{kl}^{x} А_{jl}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Это наиболее общее выражение распространения ошибки от одного набора переменных к другому. Когда ошибки по x некоррелированы, общее выражение упрощается до
![{\ displaystyle \ Sigma _ {ij} ^ {f} = \ sum _ {k} ^ {n} A_ {ik} \ Sigma _ {k} ^ {x} A_ {jk},}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
kxxf![{\displaystyle \Sigma _{k}^{x}=\sigma _{x_{k}}^{2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle {\boldsymbol {\Sigma }}^{x}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle {\boldsymbol {\Sigma }}^{f}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Общие выражения для скалярной функции f немного проще (здесь a — вектор-строка):
![{\ displaystyle f = \ sum _ {i} ^ {n} a_ {i} x_ {i} = \ mathbf {ax},}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \sigma _{f}^{2}=\sum _{i}^{n} \sum _{j}^{n}a_{i}\Sigma _{ij}^{x}a_{ j}=\mathbf {a} {\boldsymbol {\Sigma }}^{x}\mathbf {a} ^{\mathrm {T} }.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Каждый член ковариации может быть выражен через коэффициент корреляции , так что альтернативное выражение для дисперсии f имеет вид
![{\displaystyle \rho _{ij}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \sigma _{ij}=\rho _{ij} \sigma _{i}\sigma _{j}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \sigma _{f}^{2}=\sum _{i}^{n}a_{i}^{2}\sigma _{i}^{2}+\sum _{i}^ {n}\sum _{j(j\neq i)}^{n}a_{i}a_{j}\rho _{ij}\sigma _{i}\sigma _{j}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
В случае, когда переменные в x некоррелированы, это еще больше упрощается до
![{\displaystyle \sigma _{f}^{2}=\sum _{i}^{n}a_{i}^{2}\sigma _{i}^{2}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
В простом случае одинаковых коэффициентов и дисперсий находим
![{\displaystyle \sigma _{f}={\sqrt {n}}\,|a|\sigma .}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Для среднего арифметического результат представляет собой стандартную ошибку среднего :![{\displaystyle a=1/n}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \sigma _{f}={\frac {\sigma }{\sqrt {n}}}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Нелинейные комбинации
Когда f представляет собой набор нелинейной комбинации переменных x , можно выполнить распространение по интервалам , чтобы вычислить интервалы, которые содержат все согласованные значения переменных. В вероятностном подходе функцию f обычно необходимо линеаризовать путем приближения к разложению в ряд Тейлора первого порядка , хотя в некоторых случаях можно вывести точные формулы, которые не зависят от разложения, как в случае точной дисперсии произведений . [7] Расширение Тейлора будет таким:
![{\displaystyle f_{k}\approx f_{k}^{0}+\sum _{i}^{n}{\frac {\partial f_{k}}{\partial {x_{i}}}} х_{я}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
производную f kixматричной записи![{\displaystyle \partial f_{k}/\partial x_{i}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \mathrm {f} \approx \mathrm {f} ^{0}+\mathrm {J} \mathrm {x} \,}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
матрица Якобиана0A kiA kj[8]![{\displaystyle {\frac {\partial f_{k}}{\partial x_{i}}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle {\frac {\partial f_{k}}{\partial x_{j}}}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\ displaystyle \ mathrm {\ Sigma } ^ {\ mathrm {f} } = \ mathrm {J} \ mathrm {\ Sigma } ^ {\ mathrm {x} } \ mathrm {J} ^ {\ top }.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
То есть якобиан функции используется для преобразования строк и столбцов дисперсионно-ковариационной матрицы аргумента. Обратите внимание, что это эквивалентно матричному выражению для линейного случая с .![{\displaystyle \mathrm {J=A} }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Упрощение
Пренебрежение корреляциями или допущение независимых переменных приводит к общей формуле среди инженеров и ученых-экспериментаторов для расчета распространения ошибок - формуле дисперсии: [9]
![{\displaystyle s_{f}={\sqrt {\left({\frac {\partial f}{\partial x}}\right)^{2}s_{x}^{2}+\left({\ frac {\partial f}{\partial y}}\right)^{2}s_{y}^{2}+\left({\frac {\partial f}{\partial z}}\right)^{ 2}s_{z}^{2}+\cdots }}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle s_{f}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle е}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle s_ {x}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle х}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle s_{y}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle y}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Важно отметить, что эта формула основана на линейных характеристиках градиента и, следовательно, является хорошей оценкой стандартного отклонения, если оно достаточно мало. В частности, линейная аппроксимация должна быть близка к окрестности радиуса . [10]![{\displaystyle е}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle е}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle s_{x},s_{y},s_{z},\ldots }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle е}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle е}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle s_{x},s_{y},s_{z},\ldots }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Пример
Любая нелинейная дифференцируемая функция двух переменных и может быть расширена как![{\ displaystyle f (a, b)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle а}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle б}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle f\approx f^{0}+{\frac {\partial f}{\partial a}}a+{\frac {\partial f}{\partial b}}b}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
[11]![{\displaystyle \operatorname {Var} (aX+bY)=a^{2} \operatorname {Var} (X)+b^{2} \operatorname {Var} (Y)+2ab \operatorname {Cov} (X ,Y)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
следовательно:
![{\displaystyle \sigma _{f}^{2}\approx \left|{\frac {\partial f}{\partial a}}\right|^{2}\sigma _{a}^{2}+ \left|{\frac {\partial f}{\partial b}}\right|^{2}\sigma _{b}^{2}+2{\frac {\partial f}{\partial a}} {\frac {\partial f}{\partial b}}\sigma _{ab}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \sigma _{f}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle е}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \sigma _{a}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle а}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \sigma _{b}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle б}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \sigma _{ab}=\sigma _{a}\sigma _{b}\rho _{ab}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle а}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle б}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
В частном случае , , . Затем
![{\displaystyle {\frac {\partial f}{\partial b}}=a}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \sigma _{f}^{2}\approx b^{2}\sigma _{a}^{2}+a^{2}\sigma _{b}^{2}+2ab\, \сигма _{ab}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \left({\frac {\sigma _{f}}{f}}\right)^{2}\approx \left({\frac {\sigma _{a}}{a}}\right )^{2}+\left({\frac {\sigma _{b}}{b}}\right)^{2}+2\left({\frac {\sigma _{a}}{a} }\right)\left({\frac {\sigma _{b}}{b}}\right)\rho _{ab}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \rho _{ab}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle а}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle б}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Когда переменные и некоррелированы, . Затем![{\displaystyle а}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle б}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \rho _{ab}=0}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \left({\frac {\sigma _{f}}{f}}\right)^{2}\approx \left({\frac {\sigma _{a}}{a}}\right )^{2}+\left({\frac {\sigma _{b}}{b}}\right)^{2}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Предостережения и предупреждения
Оценки ошибок для нелинейных функций смещены из-за использования разложения в усеченный ряд. Степень этой предвзятости зависит от характера функции. Например, смещение ошибки, рассчитанной для log(1+ x ), увеличивается с увеличением x , поскольку разложение до x является хорошим приближением только тогда, когда x близок к нулю.
Для сильно нелинейных функций существует пять категорий вероятностных подходов к распространению неопределенности; [12] Подробности см. в разделе «Количественная оценка неопределенности» .
Взаимный и смещенный взаимный
В частном случае обратного или взаимного распределения , когда следует стандартное нормальное распределение , результирующее распределение является обратным стандартным нормальным распределением, и не существует определяемой дисперсии. [13]![{\displaystyle 1/B}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle B=N(0,1)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Однако в несколько более общем случае смещенной обратной функции для следования общему нормальному распределению статистика среднего и дисперсии действительно существует в смысле главного значения , если разница между полюсом и средним значением имеет действительное значение. [14]![{\displaystyle 1/(пБ)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\ displaystyle B = N (\ му, \ сигма)}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\ displaystyle p}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \mu }](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Соотношения
Соотношения также проблематичны; нормальные приближения существуют при определенных условиях.
Примеры формул
В этой таблице показаны дисперсии и стандартные отклонения простых функций реальных переменных , а также ковариация стандартных отклонений и корреляция . Действительные коэффициенты и предполагаются точно известными (детерминированными), т. е. .![{\displaystyle A,B\!}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \sigma _{AB}=\rho _{AB} \sigma _{A}\sigma _{B}\,}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \rho _{AB}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle а}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle б}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \sigma _{a}=\sigma _{b}=0}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
В правых столбцах таблицы и — ожидаемые значения , а — значение функции, рассчитанное по этим значениям.![{\displaystyle А}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle B}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle е}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Для некоррелированных переменных ( , ) выражения для более сложных функций можно получить путем объединения более простых функций. Например, повторное умножение, при условии отсутствия корреляции, дает![{\displaystyle \rho _{AB}=0}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \sigma _{AB}=0}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle f=ABC;\qquad \left({\frac {\sigma _{f}}{f}}\right)^{2}\approx \left({\frac {\sigma _{A}} {A}}\right)^{2}+\left({\frac {\sigma _{B}}{B}}\right)^{2}+\left({\frac {\sigma _{C }}{C}}\вправо)^{2}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Для этого случая у нас также есть выражение Гудмана [7] для точной дисперсии: для некоррелированного случая оно равно![{\displaystyle f=AB}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle V(XY)=E(X)^{2}V(Y)+E(Y)^{2}V(X)+E((XE(X))^{2}(YE(Y ))^{2})}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \sigma _{f}^{2}=A^{2}\sigma _{B}^{2}+B^{2}\sigma _{A}^{2}+\sigma _{ A}^{2}\sigma _{B}^{2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Влияние корреляции на различия
Если A и B некоррелированы, их разница AB будет иметь большую дисперсию, чем любая из них. Увеличение положительной корреляции ( ) уменьшит дисперсию разницы, приближаясь к нулевой дисперсии для идеально коррелирующих переменных с одинаковой дисперсией . С другой стороны, отрицательная корреляция ( ) еще больше увеличит дисперсию разницы по сравнению с некоррелированным случаем.![{\displaystyle \rho _{AB}\to 1}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \rho _{AB}\to -1}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Например, самовычитание f=AA имеет нулевую дисперсию только в том случае, если переменная полностью автокоррелирована ( ). Если A некоррелировано, то выходное отклонение в два раза превышает входное отклонение . И если A полностью антикоррелирован, то входная дисперсия увеличивается в четыре раза на выходе (обратите внимание на f = aA - aA в таблице выше).![{\displaystyle \sigma _{f}^{2}=0}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \rho _{A}=1}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \rho _{A}=0}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \sigma _{f}^{2}=2\sigma _{A}^{2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \rho _{A}=-1}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \sigma _{f}^{2}=4\sigma _{A}^{2}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle 1-\rho _{A}=2}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Пример расчетов
Функция обратного тангенса
Мы можем рассчитать распространение неопределенности для функции обратного тангенса в качестве примера использования частных производных для распространения ошибки.
Определять
![{\ displaystyle f (x) = \ arctan (x),}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
xf ( x )x![{\displaystyle \Delta _ {x}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle {\frac {df}{dx}}={\frac {1}{1+x^{2}}}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Следовательно, наша распространяемая неопределенность равна
![{\displaystyle \Delta _{f}\approx {\frac {\Delta _{x}}{1+x^{2}}},}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
![{\displaystyle \Delta _ {f}}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Измерение сопротивления
Практическое применение — это эксперимент , в котором измеряют ток I и напряжение V на резисторе , чтобы определить сопротивление R , используя закон Ома R = V / I .
Учитывая измеряемые переменные с неопределенностями I ± σ I и V ± σ V и пренебрегая их возможной корреляцией, неопределенность вычисленной величины σ R составляет:
![{\displaystyle \sigma _{R}\approx {\sqrt {\sigma _{V}^{2}\left({\frac {1}{I}}\right)^{2}+\sigma _{ I}^{2}\left({\frac {-V}{I^{2}}}\right)^{2}}}=R{\sqrt {\left({\frac {\sigma _{ V}}{V}}\right)^{2}+\left({\frac {\sigma _{I}}{I}}\right)^{2}}}.}](data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7)
Смотрите также
Рекомендации
- ^ Киршнер, Джеймс. «Набор инструментов для анализа данных № 5: анализ неопределенностей и распространение ошибок» (PDF) . Сейсмологическая лаборатория Беркли . Калифорнийский университет . Проверено 22 апреля 2016 г.
- ^ Крозе, ДП; Таймре, Т.; Ботев, З.И. (2011). Справочник по методам Монте-Карло . Джон Уайли и сыновья.
- ^ Ранфтл, Саша; фон дер Линден, Вольфганг (13 ноября 2021 г.). «Байесовский суррогатный анализ и распространение неопределенности». Форум физических наук . 3 (1): 6. arXiv : 2101.04038 . дои : 10.3390/psf2021003006 . ISSN 2673-9984.
- ^ Атанасова, Э.; Гуров Т.; Караиванова А.; Ивановская, С.; Дурчова, М.; Димитров, Д. (2016). «О подходах к распараллеливанию архитектуры Intel MIC». Материалы конференции AIP . 1773 (1): 070001. Бибкод : 2016AIPC.1773g0001A. дои : 10.1063/1.4964983.
- ^ Кунья-младший, А.; Насер, Р.; Сампайо, Р.; Лопес, Х.; Брейтман, К. (2014). «Количественная оценка неопределенности с помощью метода Монте-Карло в условиях облачных вычислений». Компьютерная физика. Коммуникации . 185 (5): 1355–1363. arXiv : 2105.09512 . Бибкод : 2014CoPhC.185.1355C. дои :10.1016/j.cpc.2014.01.006. S2CID 32376269.
- ^ Лин, Ю.; Ван, Ф.; Лю, Б. (2018). «Генератор случайных чисел для крупномасштабного параллельного моделирования Монте-Карло на FPGA». Журнал вычислительной физики . 360 : 93–103. Бибкод : 2018JCoPh.360...93L. дои : 10.1016/j.jcp.2018.01.029.
- ^ аб Гудман, Лео (1960). «О точном отклонении продуктов». Журнал Американской статистической ассоциации . 55 (292): 708–713. дои : 10.2307/2281592. JSTOR 2281592.
- ^ Очоа1, Бенджамин; Белонги, Серж «Распространение ковариации для управляемого сопоставления». Архивировано 20 июля 2011 г. в Wayback Machine.
- ^ Ку, HH (октябрь 1966 г.). «Заметки по использованию формул распространения ошибок». Журнал исследований Национального бюро стандартов . 70C (4): 262. doi : 10.6028/jres.070c.025 . ISSN 0022-4316 . Проверено 3 октября 2012 г.
- ^ Клиффорд, А.А. (1973). Многомерный анализ ошибок: справочник по распространению ошибок и расчетам в многопараметрических системах . Джон Уайли и сыновья. ISBN 978-0470160558.[ нужна страница ]
- ^ Соч, Йорам (07.07.2020). «Дисперсия линейной комбинации двух случайных величин». Книга статистических доказательств . Проверено 29 января 2022 г.
- ^ Ли, SH; Чен, В. (2009). «Сравнительное исследование методов распространения неопределенности для задач типа черного ящика». Структурная и междисциплинарная оптимизация . 37 (3): 239–253. дои : 10.1007/s00158-008-0234-7. S2CID 119988015.
- ^ Джонсон, Норман Л.; Коц, Сэмюэл; Балакришнан, Нараянасвами (1994). Непрерывные одномерные распределения, Том 1 . Уайли. п. 171. ИСБН 0-471-58495-9.
- ^ Леконт, Кристоф (май 2013 г.). «Точная статистика систем с неопределенностями: аналитическая теория стохастических динамических систем первого ранга». Журнал звука и вибрации . 332 (11): 2750–2776. дои : 10.1016/j.jsv.2012.12.009.
- ^ «Краткая информация о распространении ошибок» (PDF) . п. 2. Архивировано из оригинала (PDF) 13 декабря 2016 г. Проверено 4 апреля 2016 г.
- ^ «Распространение неопределенности посредством математических операций» (PDF) . п. 5 . Проверено 4 апреля 2016 г.
- ^ «Стратегии оценки дисперсии» (PDF) . п. 37 . Проверено 18 января 2013 г.
- ^ Аб Харрис, Дэниел К. (2003), Количественный химический анализ (6-е изд.), Macmillan, стр. 56, ISBN 978-0-7167-4464-1
- ^ «Учебное пособие по распространению ошибок» (PDF) . Футхиллский колледж . 9 октября 2009 года . Проверено 1 марта 2012 г.
дальнейшее чтение
- Бевингтон, Филип Р.; Робинсон, Д. Кейт (2002), Сокращение данных и анализ ошибок для физических наук (3-е изд.), McGraw-Hill, ISBN 978-0-07-119926-1
- Форнасини, Паоло (2008), Неопределенность физических измерений: введение в анализ данных в физической лаборатории, Springer, стр. 161, ИСБН 978-0-387-78649-0
- Мейер, Стюарт Л. (1975), Анализ данных для ученых и инженеров , Wiley, ISBN 978-0-471-59995-1
- Перальта, М. (2012), Распространение ошибок: как математически прогнозировать ошибки измерений , CreateSpace
- Руо, М. (2013), Вероятность, статистика и оценка: распространение неопределенностей в экспериментальных измерениях (PDF) (краткая редакция)
- Тейлор, младший (1997), Введение в анализ ошибок: исследование неопределенностей в физических измерениях (2-е изд.), Университетские научные книги
- Ван, СМ; Айер, Хари К. (7 сентября 2005 г.). «О поправках высшего порядка за распространение неопределенностей». Метрология . 42 (5): 406–410. дои : 10.1088/0026-1394/42/5/011. ISSN 0026-1394. S2CID 122841691.
Внешние ссылки
- Подробное обсуждение измерений и распространения неопределенности, объясняющее преимущества использования формул распространения ошибок и моделирования Монте-Карло вместо простой арифметики значимости.
- ГУМ, Руководство по выражению неопределенности измерений
- EPFL. Введение в распространение ошибок, их вывод, значение и примеры Cy = Fx Cx Fx'
- пакет неопределенностей, программа/библиотека для прозрачного выполнения расчетов с неопределенностями (и корреляциями ошибок).
- пакет soerp, программа/библиотека Python для прозрачного выполнения вычислений *второго* порядка* с неопределенностями (и корреляциями ошибок).
- Объединенный комитет руководств по метрологии (2011 г.). JCGM 102: Оценка данных измерений - Дополнение 2 к «Руководству по выражению неопределенности в измерениях» - Расширение на любое количество выходных величин (PDF) (Технический отчет). JCGM . Проверено 13 февраля 2013 г.
- Калькулятор неопределенности. Распространение неопределенности для любого выражения.