stringtranslate.com

Статистический вывод

Статистический вывод — это процесс использования анализа данных для вывода свойств базового распределения вероятности . [1] Выводной статистический анализ выводит свойства совокупности , например, путем проверки гипотез и получения оценок. Предполагается, что наблюдаемый набор данных выбирается из более крупной совокупности.

Выводную статистику можно противопоставить описательной статистике . Описательная статистика занимается исключительно свойствами наблюдаемых данных и не основывается на предположении, что данные поступают из более крупной популяции. В машинном обучении термин вывод иногда используется вместо этого для обозначения «сделать прогноз, оценивая уже обученную модель»; [2] в этом контексте вывод свойств модели называется обучением или обучением (а не выводом ), а использование модели для прогнозирования называется выводом (вместо прогнозирования ); см. также предиктивный вывод .

Введение

Статистический вывод делает предположения о популяции, используя данные, полученные из популяции с помощью некоторой формы выборки . При наличии гипотезы о популяции, для которой мы хотим сделать выводы, статистический вывод состоит из (во-первых) выбора статистической модели процесса, который генерирует данные, и (во-вторых) выведения предположений из модели. [3]

Кониси и Китагава утверждают: «Большинство проблем статистического вывода можно считать проблемами, связанными со статистическим моделированием». [4] В связи с этим сэр Дэвид Кокс сказал: «То, как осуществляется перевод предметной проблемы в статистическую модель, часто является наиболее важной частью анализа». [5]

Заключение статистического вывода является статистическим суждением . [ 6] Некоторые общие формы статистического суждения следующие:

Модели и предположения

Любой статистический вывод требует некоторых предположений. Статистическая модель представляет собой набор предположений относительно генерации наблюдаемых данных и подобных данных. Описания статистических моделей обычно подчеркивают роль интересующих нас величин населения, о которых мы хотим сделать вывод. [7] Описательная статистика обычно используется в качестве предварительного шага перед тем, как будут сделаны более формальные выводы. [8]

Степень моделей/предположений

Статистики различают три уровня допущений моделирования;

Важность обоснованных моделей/предположений

На изображении выше показана гистограмма, оценивающая предположение о нормальности, которое можно проиллюстрировать с помощью равномерного распределения под колоколообразной кривой.

Какой бы уровень допущений ни был сделан, правильно выверенный вывод, как правило, требует, чтобы эти допущения были верными, то есть чтобы механизмы генерации данных были действительно правильно указаны.

Неправильные предположения о «простой» случайной выборке могут сделать статистический вывод недействительным. [10] Более сложные полу- и полностью параметрические предположения также вызывают беспокойство. Например, неверное предположение о модели Кокса может в некоторых случаях привести к ошибочным выводам. [11] Неправильные предположения о нормальности в популяции также делают недействительными некоторые формы выводов, основанных на регрессии. [12] Использование любой параметрической модели рассматривается скептически большинством экспертов в области выборки человеческих популяций: «большинство статистиков, занимающихся выборкой, когда они вообще имеют дело с доверительными интервалами, ограничивают себя утверждениями об [оценщиках], основанными на очень больших выборках, где центральная предельная теорема гарантирует, что эти [оценщики] будут иметь распределения, близкие к нормальным». [13] В частности, нормальное распределение «было бы совершенно нереалистичным и катастрофически неразумным предположением, если бы мы имели дело с любым видом экономической популяции». [13] Здесь центральная предельная теорема утверждает, что распределение выборочного среднего «для очень больших выборок» приблизительно нормально распределено, если распределение не имеет тяжелого хвоста.

Приблизительные распределения

Учитывая сложность определения точных распределений выборочных статистик, было разработано множество методов для их аппроксимации.

При конечных выборках результаты аппроксимации измеряют, насколько близко предельное распределение приближается к выборочному распределению статистики : например, при 10 000 независимых выборках нормальное распределение аппроксимирует (с точностью до двух знаков) распределение выборочного среднего для многих распределений популяции по теореме Берри–Эссеена . [14] Тем не менее, для многих практических целей нормальное приближение обеспечивает хорошее приближение к распределению выборочного среднего, когда имеется 10 (или более) независимых выборок, согласно исследованиям моделирования и опыту статистиков. [14] После работы Колмогорова в 1950-х годах продвинутая статистика использует теорию аппроксимации и функциональный анализ для количественной оценки ошибки аппроксимации. В этом подходе изучается метрическая геометрия распределений вероятностей ; этот подход количественно оценивает ошибку аппроксимации, например, с помощью расхождения Кульбака–Лейблера , расхождения Брегмана и расстояния Хеллингера . [15] [16] [17]

При неопределенно больших выборках предельные результаты , такие как центральная предельная теорема, описывают предельное распределение выборочной статистики, если таковое существует. Предельные результаты не являются утверждениями о конечных выборках и, действительно, не имеют отношения к конечным выборкам. [18] [19] [20] Однако асимптотическая теория предельных распределений часто применяется для работы с конечными выборками. Например, предельные результаты часто применяются для обоснования обобщенного метода моментов и использования обобщенных оценочных уравнений , которые популярны в эконометрике и биостатистике . Величину разницы между предельным распределением и истинным распределением (формально, «ошибку» аппроксимации) можно оценить с помощью моделирования. [21] Эвристическое применение предельных результатов к конечным выборкам является обычной практикой во многих приложениях, особенно с низкоразмерными моделями с логарифмически вогнутыми правдоподобиями (например, с однопараметрическими экспоненциальными семействами ).

Модели, основанные на рандомизации

Для заданного набора данных, который был получен с помощью рандомизационного дизайна, распределение рандомизации статистики (при нулевой гипотезе) определяется путем оценки тестовой статистики для всех планов, которые могли быть получены с помощью рандомизационного дизайна. В частотном выводе рандомизация позволяет делать выводы на основе распределения рандомизации, а не субъективной модели, и это важно, особенно при выборке обследования и планировании экспериментов. [22] [23] Статистический вывод из рандомизированных исследований также более прост, чем во многих других ситуациях. [24] [25] [26] В байесовском выводе рандомизация также важна: в выборке обследования использование выборки без замены обеспечивает взаимозаменяемость выборки с популяцией; в рандомизированных экспериментах рандомизация гарантирует отсутствие случайного предположения для ковариационной информации. [27]

Объективная рандомизация допускает должным образом индуктивные процедуры. [28] [29] [30] [31] [32] Многие статистики предпочитают основанный на рандомизации анализ данных, которые были получены с помощью четко определенных процедур рандомизации. [33] (Однако верно, что в областях науки с развитыми теоретическими знаниями и экспериментальным контролем рандомизированные эксперименты могут увеличить стоимость эксперимента без улучшения качества выводов. [34] [35] ) Аналогичным образом, результаты рандомизированных экспериментов рекомендуются ведущими статистическими органами как позволяющие делать выводы с большей надежностью, чем наблюдательные исследования тех же явлений. [36] Однако хорошее наблюдательное исследование может быть лучше плохого рандомизированного эксперимента.

Статистический анализ рандомизированного эксперимента может быть основан на схеме рандомизации, указанной в экспериментальном протоколе, и не нуждается в субъективной модели. [37] [38]

Однако в любой момент времени некоторые гипотезы не могут быть проверены с использованием объективных статистических моделей, которые точно описывают рандомизированные эксперименты или случайные выборки. В некоторых случаях такие рандомизированные исследования неэкономичны или неэтичны.

Анализ рандомизированных экспериментов на основе моделей

Стандартной практикой является обращение к статистической модели, например, линейной или логистической модели, при анализе данных рандомизированных экспериментов. [39] Однако схема рандомизации определяет выбор статистической модели. Невозможно выбрать подходящую модель, не зная схему рандомизации. [23] Серьезно вводящие в заблуждение результаты могут быть получены при анализе данных рандомизированных экспериментов с игнорированием экспериментального протокола; распространенные ошибки включают в себя забывание о блокировке, используемой в эксперименте, и путаницу повторных измерений на одном и том же экспериментальном блоке с независимыми повторениями обработки, применяемой к различным экспериментальным блокам. [40]

Вывод рандомизации без модели

Методы без моделей дополняют методы на основе моделей, которые используют редукционистские стратегии упрощения реальности. Первые объединяют, развивают, объединяют и обучают алгоритмы, динамически адаптирующиеся к контекстуальным связям процесса и изучающие внутренние характеристики наблюдений. [41] [42]

Например, простая линейная регрессия без модели основана либо на

В любом случае вывод рандомизации без модели для признаков общего условного распределения опирается на некоторые условия регулярности, например, на функциональную гладкость. Например, вывод рандомизации без модели для условного среднего признака популяции , , может быть последовательно оценен с помощью локального усреднения или локальной полиномиальной подгонки, при условии, что является гладким. Кроме того, опираясь на асимптотическую нормальность или повторную выборку, мы можем построить доверительные интервалы для признака популяции, в данном случае, условного среднего , . [43]

Парадигмы для вывода

Стали существовать различные школы статистического вывода. Эти школы — или «парадигмы» — не являются взаимоисключающими, и методы, которые хорошо работают в рамках одной парадигмы, часто имеют привлекательные интерпретации в рамках других парадигм.

Бандйопадхай и Форстер описывают четыре парадигмы: классическую (или частотную ) парадигму, байесовскую парадигму, парадигму правдоподобия и парадигму, основанную на информационном критерии Акаикеа . [44]

Частотный вывод

Эта парадигма калибрует правдоподобность предложений, рассматривая (воображаемую) повторную выборку распределения популяции для получения наборов данных, похожих на имеющиеся. Рассматривая характеристики набора данных при повторной выборке, можно количественно оценить частотные свойства статистического предложения, хотя на практике эта количественная оценка может быть сложной.

Примеры частотного вывода

Частотный вывод, объективность и теория принятия решений

Одна из интерпретаций частотного вывода (или классического вывода) заключается в том, что он применим только в терминах вероятности частоты ; то есть в терминах повторной выборки из популяции. Однако подход Неймана [45] развивает эти процедуры в терминах вероятностей до эксперимента. То есть, перед проведением эксперимента принимается решение о правиле для вывода, так что вероятность быть правильным контролируется подходящим образом: такая вероятность не обязательно должна иметь частотную или повторную выборочную интерпретацию. Напротив, байесовский вывод работает в терминах условных вероятностей (т. е. вероятностей, обусловленных наблюдаемыми данными), по сравнению с маргинальными (но обусловленными неизвестными параметрами) вероятностями, используемыми в частотном подходе.

Частотные процедуры проверки значимости и доверительные интервалы могут быть построены без учета функций полезности . Однако некоторые элементы частотной статистики, такие как теория статистических решений , включают функции полезности . [ требуется ссылка ] В частности, частотные разработки оптимального вывода (такие как несмещенные оценщики с минимальной дисперсией или равномерно наиболее мощное тестирование ) используют функции потерь , которые играют роль (отрицательных) функций полезности. Функции потерь не обязательно должны быть явно указаны для статистических теоретиков, чтобы доказать, что статистическая процедура имеет свойство оптимальности. [46] Однако функции потерь часто полезны для указания свойств оптимальности: например, медианно-несмещенные оценщики оптимальны при функциях потерь абсолютного значения , поскольку они минимизируют ожидаемые потери, а оценки наименьших квадратов оптимальны при функциях потерь квадратичной ошибки, поскольку они минимизируют ожидаемые потери.

В то время как статистики, использующие частотный вывод, должны самостоятельно выбирать интересующие их параметры, а также оценочные и проверочные статистики , которые будут использоваться, отсутствие явно явных полезностей и априорных распределений помогло частотным процедурам стать широко признанными «объективными». [47]

Байесовский вывод

Байесовский исчисление описывает степени убеждений, используя «язык» вероятности; убеждения положительны, объединяются в одно целое и подчиняются аксиомам вероятности. Байесовский вывод использует доступные апостериорные убеждения в качестве основы для создания статистических предложений. [48] Существует несколько различных обоснований использования байесовского подхода.

Примеры байесовского вывода

Байесовский вывод, субъективность и теория принятия решений

Многие неформальные байесовские выводы основаны на «интуитивно обоснованных» резюме апостериорной информации. Например, апостериорное среднее, медиана и мода, наивысшие интервалы апостериорной плотности и байесовские факторы могут быть мотивированы таким образом. Хотя для такого рода вывода не требуется указывать функцию полезности пользователя, все эти резюме зависят (в некоторой степени) от заявленных априорных убеждений и, как правило, рассматриваются как субъективные выводы. (Методы априорной конструкции, не требующие внешнего ввода, были предложены , но еще не полностью разработаны.)

Формально байесовский вывод калибруется относительно явно указанной полезности или функции потерь; «правило Байеса» — это правило, которое максимизирует ожидаемую полезность, усредненную по апостериорной неопределенности. Таким образом, формальный байесовский вывод автоматически обеспечивает оптимальные решения в смысле теории принятия решений . При наличии предположений, данных и полезности байесовский вывод может быть сделан практически для любой проблемы, хотя не каждый статистический вывод должен иметь байесовскую интерпретацию. Анализы, которые формально не являются байесовскими, могут быть (логически) непоследовательными ; особенностью байесовских процедур, которые используют надлежащие априорные данные (т. е. те, которые интегрируются к единице), является то, что они гарантированно являются последовательными . Некоторые сторонники байесовского вывода утверждают, что вывод должен иметь место в этой теоретической структуре принятия решений и что байесовский вывод не должен заканчиваться оценкой и обобщением апостериорных убеждений.

Вывод, основанный на вероятности

Вывод на основе правдоподобия — это парадигма, используемая для оценки параметров статистической модели на основе наблюдаемых данных. Лайклихудизм подходит к статистике, используя функцию правдоподобия , обозначаемую как , количественно определяет вероятность наблюдения заданных данных , предполагая определенный набор значений параметров . В выводе на основе правдоподобия цель состоит в том, чтобы найти набор значений параметров, который максимизирует функцию правдоподобия или, что эквивалентно, максимизирует вероятность наблюдения заданных данных.

Процесс вывода на основе вероятности обычно включает следующие этапы:

  1. Формулирование статистической модели: статистическая модель определяется на основе рассматриваемой проблемы, определяя распределительные предположения и связь между наблюдаемыми данными и неизвестными параметрами. Модель может быть простой, например, нормальное распределение с известной дисперсией, или сложной, например, иерархическая модель с несколькими уровнями случайных эффектов.
  2. Построение функции правдоподобия: При наличии статистической модели функция правдоподобия строится путем оценки совместной плотности вероятности или функции массы наблюдаемых данных как функции неизвестных параметров. Эта функция представляет вероятность наблюдения данных для различных значений параметров.
  3. Максимизация функции правдоподобия: Следующий шаг — найти набор значений параметров, который максимизирует функцию правдоподобия. Этого можно достичь с помощью методов оптимизации, таких как алгоритмы численной оптимизации. Оценочные значения параметров, часто обозначаемые как , являются оценками максимального правдоподобия (MLE).
  4. Оценка неопределенности: После получения MLE важно количественно оценить неопределенность, связанную с оценками параметров. Это можно сделать, вычислив стандартные ошибки , доверительные интервалы или проведя проверки гипотез на основе асимптотической теории или методов моделирования, таких как бутстрап .
  5. Проверка модели: После получения оценок параметров и оценки их неопределенности важно оценить адекватность статистической модели. Это включает проверку допущений, сделанных в модели, и оценку соответствия модели данным с использованием тестов на соответствие, анализа остатков или графической диагностики.
  6. Вывод и интерпретация: Наконец, на основе оцененных параметров и оценки модели можно сделать статистический вывод. Это включает в себя составление заключений о параметрах популяции, составление прогнозов или проверку гипотез на основе оцененной модели.

Вывод на основе AIC

Критерий информации Акаике (AIC) является оценщиком относительного качества статистических моделей для заданного набора данных. При наличии набора моделей для данных AIC оценивает качество каждой модели относительно каждой из других моделей. Таким образом, AIC предоставляет средства для выбора модели .

AIC основан на теории информации : он предлагает оценку относительной потери информации при использовании данной модели для представления процесса, который сгенерировал данные. (При этом он имеет дело с компромиссом между качеством соответствия модели и ее простотой.)

Другие парадигмы вывода

Минимальная длина описания

Принцип минимальной длины описания (MDL) был разработан на основе идей теории информации [49] и теории сложности Колмогорова . [50] Принцип (MDL) выбирает статистические модели, которые максимально сжимают данные; вывод осуществляется без предположения контрфактуальных или нефальсифицируемых «механизмов генерации данных» или вероятностных моделей для данных, как это могло бы быть сделано в частотном или байесовском подходах.

Однако, если «механизм генерации данных» существует в реальности, то согласно теореме Шеннона о кодировании источника он обеспечивает описание MDL данных в среднем и асимптотически. [51] При минимизации длины описания (или описательной сложности) оценка MDL похожа на оценку максимального правдоподобия и оценку максимального апостериорного значения (использующую байесовские априорные данные с максимальной энтропией ). Однако MDL избегает предположения, что базовая вероятностная модель известна; принцип MDL также может применяться без предположений, что, например, данные возникли из независимой выборки. [51] [52]

Принцип MDL применялся в теории кодирования связи, в теории информации , в линейной регрессии [52] и в интеллектуальном анализе данных [50] .

Оценка процедур вывода на основе MDL часто использует методы или критерии из теории сложности вычислений . [53]

Фидуциальный вывод

Фидуциальный вывод был подходом к статистическому выводу, основанным на фидуциальных вероятностях , также известных как «фидуциальные распределения». В последующих работах этот подход был назван плохо определенным, крайне ограниченным в применимости и даже ошибочным. [54] [55] Однако этот аргумент тот же, что и тот, который показывает [56] , что так называемое доверительное распределение не является допустимым распределением вероятностей и, поскольку это не сделало недействительным применение доверительных интервалов , это не обязательно делает недействительными выводы, сделанные из фидуциальных аргументов. Была сделана попытка переосмыслить раннюю работу Фишера о фидуциальных аргументах как частный случай теории вывода, использующей верхние и нижние вероятности . [57]

Структурный вывод

Развивая идеи Фишера и Питмана с 1938 по 1939 год, [58] Джордж А. Барнард разработал «структурный вывод» или «основной вывод», [59] подход, использующий инвариантные вероятности для групповых семейств . Барнард переформулировал аргументы в пользу фидуциального вывода на ограниченном классе моделей, на которых «фидуциальные» процедуры были бы четко определены и полезны. Дональд А. С. Фрейзер разработал общую теорию структурного вывода [60], основанную на теории групп , и применил ее к линейным моделям. [61] Теория, сформулированная Фрейзером, тесно связана с теорией принятия решений и байесовской статистикой и может обеспечить оптимальные частотные правила принятия решений, если они существуют. [62]

Темы выводов

Приведенные ниже темы обычно относятся к области статистических выводов .

  1. Статистические предположения
  2. Теория статистического принятия решений
  3. Теория оценки
  4. Статистическая проверка гипотез
  5. Пересмотр мнений в статистике
  6. Планирование экспериментов , дисперсионный анализ и регрессия
  7. Выборка обследования
  8. Обобщение статистических данных

Предиктивный вывод

Прогностический вывод — это подход к статистическому выводу, который делает акцент на прогнозировании будущих наблюдений на основе прошлых наблюдений.

Первоначально предсказательный вывод основывался на наблюдаемых параметрах и был главной целью изучения вероятности , [ требуется ссылка ], но он вышел из моды в 20 веке из-за нового параметрического подхода, впервые предложенного Бруно де Финетти . Подход моделировал явления как физическую систему, наблюдаемую с ошибкой (например, небесная механика ). Идея Де Финетти о взаимозаменяемости — о том, что будущие наблюдения должны вести себя как прошлые наблюдения — привлекла внимание англоязычного мира с переводом с французского в 1974 году его статьи 1937 года, [63] и с тех пор была предложена такими статистиками, как Сеймур Гейссер . [64]

Смотрите также

Примечания

  1. ^ Согласно Пирсу, принятие означает, что исследование этого вопроса на время прекращается. В науке все научные теории подлежат пересмотру.

Ссылки

Цитаты

  1. ^ Аптон, Г., Кук, И. (2008) Оксфордский словарь статистики , OUP. ISBN  978-0-19-954145-4 .
  2. ^ "Вывод TensorFlow Lite". Термин вывод относится к процессу выполнения модели TensorFlow Lite на устройстве с целью создания прогнозов на основе входных данных.
  3. ^ Джонсон, Ричард (12 марта 2016 г.). «Статистический вывод». Энциклопедия математики . Springer: Европейское математическое общество . Получено 26 октября 2022 г.
  4. ^ Кониси и Китагава (2008), с. 75.
  5. ^ Кокс (2006), стр. 197.
  6. ^ "Статистический вывод - Энциклопедия математики". www.encyclopediaofmath.org . Получено 2019-01-23 .
  7. ^ ab Cox (2006) стр. 2
  8. ^ Эванс, Майкл и др. (2004). Вероятность и статистика: наука неопределенности. Freeman and Company. стр. 267. ISBN 9780716747420.
  9. ^ ван дер Ваарт, AW (1998) Асимптотическая статистика Издательство Кембриджского университета. ISBN 0-521-78450-6 (стр. 341) 
  10. ^ Крускал 1988
  11. ^ Freedman, DA (2008) «Анализ выживаемости: эпидемиологическая опасность?». The American Statistician (2008) 62: 110-119. (Перепечатано как Глава 11 (страницы 169–192) Freedman (2010)).
  12. ^ Берк, Р. (2003) Регрессионный анализ: конструктивная критика (продвинутые количественные методы в социальных науках) (т. 11) Sage Publications. ISBN 0-7619-2904-5 
  13. ^ ab Brewer, Ken (2002). Выводы комбинированной выборки обследования: взвешивание слонов Басу . Hodder Arnold. стр. 6. ISBN 978-0340692295.
  14. ^ ab Йоргена Хоффмана-Йоргенсена «Вероятность с точки зрения статистики» , том I. Страница 399 [ необходима полная цитата ]
  15. ^ Le Cam (1986) [ нужна страница ]
  16. ^ Эрик Торгерсон (1991) Сравнение статистических экспериментов , том 36 Энциклопедии математики. Издательство Кембриджского университета. [ необходима полная цитата ]
  17. ^ Лизе, Фридрих и Мишке, Клаус-Дж. (2008). Статистическая теория принятия решений: оценка, тестирование и отбор . Спрингер. ISBN 978-0-387-73193-3.
  18. ^ Колмогоров (1963, с.369): «Частотная концепция, основанная на представлении о предельной частоте при возрастании числа испытаний до бесконечности, не вносит ничего в обоснование применимости результатов теории вероятностей к реальным практическим задачам, где мы всегда имеем дело с конечным числом испытаний».
  19. ^ "Действительно, предельные теоремы "при  стремлении к бесконечности" логически лишены содержания относительно того, что происходит в любой конкретной точке  . Все, что они могут сделать, это предложить определенные подходы, эффективность которых затем должна быть проверена в рассматриваемом случае". — Le Cam (1986) (стр. xiv)
  20. ^ Пфанцагль (1994): «Главный недостаток асимптотической теории: то, чего мы ожидаем от асимптотической теории, — это результаты, которые выполняются приблизительно... Асимптотическая теория может предложить предельные теоремы» (стр. ix). «Для приложений важны приближения, а не пределы» (стр. 188).
  21. ^ Пфанцагль (1994): «Принимая предельную теорему как приблизительно верную для больших размеров выборки, мы совершаем ошибку, размер которой неизвестен. [...] Реалистичная информация об оставшихся ошибках может быть получена путем моделирования». (стр. ix)
  22. ^ Нейман, Дж. (1934) «О двух различных аспектах репрезентативного метода: метод стратифицированной выборки и метод целенаправленного отбора», Журнал Королевского статистического общества , 97 (4), 557–625 JSTOR  2342192
  23. ^ ab Hinkelmann and Kempthorne(2008) [ нужна страница ]
  24. ^ Руководство ASA по первому курсу по статистике для нестатистиков. (доступно на веб-сайте ASA)
  25. ^ Статистика Дэвида А. Фридмана и др .
  26. ^ Мур и др. (2015).
  27. ^ Гельман А. и др. (2013). Байесовский анализ данных ( Чепмен и Холл ).
  28. ^ Пирс (1877-1878)
  29. ^ Пирс (1883)
  30. ^ Фридман, Пизани и Первес 1978.
  31. ^ Дэвид А. Фридман Статистические модели .
  32. ^ Рао, CR (1997) Статистика и правда: использование шанса в работе , World Scientific. ISBN 981-02-3111-3 
  33. ^ Пирс; Фридман; Мур и др. (2015). [ необходима ссылка ]
  34. ^ Бокс, GEP и друзья (2006) Улучшение почти всего: идеи и эссе, пересмотренное издание , Wiley. ISBN 978-0-471-72755-2 
  35. ^ Кокс (2006), стр. 196.
  36. ^ Руководство ASA по первому курсу по статистике для нестатистиков. (доступно на веб-сайте ASA)
    • Дэвид А. Фридман и другие Статистика .
    • Мур и др. (2015).
  37. ^ Нейман, Ежи. 1923 [1990]. «О применении теории вероятностей к сельскохозяйственным экспериментам. Эссе о принципах. Раздел 9». Статистическая наука 5 (4): 465–472. Перевод Дороты М. Домбровской и Теренса П. Спида.
  38. ^ Хинкельманн и Кемпторн (2008) [ нужна страница ]
  39. ^ Динов, Иво; Паланималай, Селвам; Кхаре, Ашвини; Христу, Николас (2018). «Статистический вывод на основе рандомизации: инфраструктура повторной выборки и моделирования». Обучение статистике . 40 (2): 64–73. doi :10.1111/test.12156. PMC 6155997. PMID 30270947  . 
  40. ^ Хинкельманн и Кемпторн (2008) Глава 6.
  41. ^ Динов, Иво; Паланималай, Селвам; Кхаре, Ашвини; Христу, Николас (2018). «Статистический вывод на основе рандомизации: инфраструктура повторной выборки и моделирования». Обучение статистике . 40 (2): 64–73. doi :10.1111/test.12156. PMC 6155997. PMID 30270947  . 
  42. ^ Тан, Мин; Гао, Чао; Гутман, Стивен; Калинин, Александр; Мукерджи, Бхрамар; Гуань, Юаньфан; Динов, Иво (2019). «Основанные на моделях и безмодельные методы диагностического прогнозирования бокового амиотрофического склероза и кластеризации пациентов». Нейроинформатика . 17 (3): 407–421. doi :10.1007/s12021-018-9406-9. PMC 6527505 . PMID  30460455. 
  43. ^ Politis, DN (2019). «Безмодельный вывод в статистике: как и почему». IMS Bulletin . 48 .
  44. ^ Bandyopadhyay & Forster (2011). См. Введение книги (стр. 3) и «Раздел III: Четыре парадигмы статистики».
  45. ^ Нейман, Дж. (1937). «Очерк теории статистической оценки, основанной на классической теории вероятностей». Philosophical Transactions of the Royal Society of London A . 236 (767): 333–380. Bibcode :1937RSPTA.236..333N. doi : 10.1098/rsta.1937.0005 . JSTOR  91337.
  46. Предисловие к Пфанцаглю.
  47. ^ Литтл, Родерик Дж. (2006). «Калиброванный Байес: дорожная карта Байеса/частотника». Американский статистик . 60 (3): 213–223. doi :10.1198/000313006X117837. ISSN  0003-1305. JSTOR  27643780. S2CID  53505632.
  48. ^ Ли, Се Юн (2021). «Сэмплер Гиббса и вариационный вывод с восхождением координат: обзор теории множеств». Communications in Statistics - Theory and Methods . 51 (6): 1549–1568. arXiv : 2008.01006 . doi : 10.1080/03610926.2021.1921214. S2CID  220935477.
  49. ^ Суфи (2000)
  50. ^ ab Хансен и Ю (2001)
  51. ^ ab Хансен и Ю (2001), стр. 747.
  52. ^ ab Rissanen (1989), стр. 84
  53. ^ Джозеф Ф. Трауб, Г. В. Васильковски и Х. Возняковски. (1988) [ нужна страница ]
  54. ^ Нейман (1956)
  55. ^ Забелл (1992)
  56. ^ Кокс (2006) стр. 66
  57. ^ Хампель 2003.
  58. ^ Дэвисон, стр. 12. [ необходима полная цитата ]
  59. ^ Барнард, GA (1995) «Основные модели и фидуциальный аргумент», International Statistical Review, 63 (3), 309–323. JSTOR  1403482
  60. ^ Фрейзер, ДАС (1968). Структура вывода. Нью-Йорк: Wiley. ISBN 0-471-27548-4. OCLC  440926.
  61. ^ Фрейзер, DAS (1979). Вывод и линейные модели. Лондон: McGraw-Hill. ISBN 0-07-021910-9. OCLC  3559629.
  62. ^ Таралдсен, Гуннар; Линдквист, Бо Генри (2013-02-01). «Теория доверительных отношений и оптимальный вывод». Анналы статистики . 41 (1). arXiv : 1301.1717 . doi : 10.1214/13-AOS1083. ISSN  0090-5364. S2CID  88520957.
  63. ^ Де Финетти, Бруно (1937). «La Prévision: ses lois logiques, ses source субъективные». Анналы Института Анри Пуанкаре . 7 (1): 1–68. ISSN  0365-320X.Перевод в De Finetti, Bruno (1992). "Foresight: Its Logical Laws, Its Subjective Sources". Прорывы в статистике . Springer Series in Statistics. стр. 134–174. doi :10.1007/978-1-4612-0919-5_10. ISBN 978-0-387-94037-3.
  64. ^ Гейссер, Сеймур (1993) Предсказательный вывод: Введение , CRC Press. ISBN 0-412-03471-9 

Источники

Дальнейшее чтение

Внешние ссылки