Вероятность — это раздел математики, посвященный событиям и числовым описаниям того, насколько вероятно, что они произойдут. Вероятность события — это число от 0 до 1; чем больше вероятность, тем более вероятно, что событие произойдет. [примечание 1] [1] [2] Простой пример — подбрасывание честной (несмещенной) монеты. Поскольку монета честная, оба результата («орел» и «решка») оба равновероятны; вероятность «орла» равна вероятности «решки»; и поскольку никакие другие результаты невозможны, вероятность либо «орла», либо «решки» равна 1/2 (что также можно записать как 0,5 или 50%).
Эти концепции получили аксиоматическую математическую формализацию в теории вероятностей , которая широко используется в таких областях изучения, как статистика , математика , наука , финансы , азартные игры , искусственный интеллект , машинное обучение , информатика , теория игр и философия , например, для вывода выводов об ожидаемой частоте событий. Теория вероятностей также используется для описания базовой механики и закономерностей сложных систем . [3]
При работе со случайными экспериментами , т. е. экспериментами , которые случайны и четко определены , в чисто теоретической обстановке (например, подбрасывание монеты), вероятности могут быть численно описаны числом желаемых результатов, деленным на общее число всех результатов. Это называется теоретической вероятностью (в отличие от эмпирической вероятности , которая имеет дело с вероятностями в контексте реальных экспериментов). Например, подбрасывание монеты дважды даст результаты «орел-орел», «орел-решка», «решка-орел» и «решка-решка». Вероятность получения результата «орел-орел» составляет 1 из 4 результатов или, в числовом выражении, 1/4, 0,25 или 25%. Однако, когда дело доходит до практического применения, существуют две основные конкурирующие категории интерпретаций вероятности, приверженцы которых придерживаются разных взглядов на фундаментальную природу вероятности:
Слово вероятность происходит от латинского probabilitas , что также может означать «достоверность», меру авторитета свидетеля в судебном деле в Европе, и часто соотносится с благородством свидетеля . В некотором смысле это сильно отличается от современного значения вероятности , которое, напротив , является мерой веса эмпирических доказательств и достигается путем индуктивного рассуждения и статистического вывода . [10]
Научное изучение вероятности является современным развитием математики. Азартные игры показывают, что интерес к количественной оценке идей вероятности существовал на протяжении всей истории, но точные математические описания возникли гораздо позже. Существуют причины медленного развития математики вероятности. В то время как азартные игры дали толчок математическому изучению вероятности, фундаментальные вопросы [примечание 2] все еще скрыты суевериями. [11]
По словам Ричарда Джеффри , «до середины семнадцатого века термин «вероятный» (лат. probabilis ) означал «одобряемый » и применялся в этом смысле однозначно к мнению и действию. Вероятное действие или мнение — это такое действие или мнение, которое разумные люди предприняли бы или которого придерживались бы в данных обстоятельствах». [12] Однако, особенно в правовом контексте, «вероятный» также мог применяться к предложениям, для которых имелись веские доказательства. [13]
Итальянский полимат шестнадцатого века Джероламо Кардано продемонстрировал эффективность определения шансов как отношения благоприятных и неблагоприятных исходов (что подразумевает, что вероятность события определяется отношением благоприятных исходов к общему числу возможных исходов [14] ). Помимо элементарной работы Кардано, учение о вероятностях восходит к переписке Пьера де Ферма и Блеза Паскаля (1654). Христиан Гюйгенс (1657) дал самую раннюю известную научную трактовку предмета. [15] «Искусство предположений » Якоба Бернулли (посмертно, 1713) и « Учение о шансах » Авраама де Муавра (1718) рассматривали предмет как раздел математики. [16] См. «Возникновение вероятности » Яна Хэкинга [10] и «Наука гипотез» Джеймса Франклина [17] для изучения истории раннего развития самой концепции математической вероятности.
Теорию ошибок можно проследить до Opera Miscellanea Роджера Котса ( посмертно, 1722), но мемуар, подготовленный Томасом Симпсоном в 1755 году (напечатан в 1756 году), впервые применил теорию к обсуждению ошибок наблюдения. [18] Переиздание (1757) этого мемуара устанавливает аксиомы о том, что положительные и отрицательные ошибки равновероятны, и что определенные назначаемые пределы определяют диапазон всех ошибок. Симпсон также обсуждает непрерывные ошибки и описывает кривую вероятности.
Первые два закона ошибок, которые были предложены, оба были созданы Пьером-Симоном Лапласом . Первый закон был опубликован в 1774 году и гласил, что частота ошибки может быть выражена как экспоненциальная функция числовой величины ошибки – без учета знака. Второй закон ошибок был предложен в 1778 году Лапласом и гласил, что частота ошибки является экспоненциальной функцией квадрата ошибки. [19] Второй закон ошибок называется нормальным распределением или законом Гаусса. «Исторически трудно приписать этот закон Гауссу, который, несмотря на свою известную раннюю развитость, вероятно, не сделал этого открытия до того, как ему исполнилось два года». [19]
Даниил Бернулли (1778) ввел принцип максимального произведения вероятностей системы одновременных ошибок.
Адриен-Мари Лежандр (1805) разработал метод наименьших квадратов и представил его в своих « Новых методах определения орбит комет » . [20] Не зная о вкладе Лежандра, ирландско-американский писатель Роберт Эдрен , редактор «Аналитика» (1808), первым вывел закон легкости ошибки,
где — константа, зависящая от точности наблюдения, а — масштабный коэффициент, гарантирующий, что площадь под кривой равна 1. Он дал два доказательства, второе из которых по сути совпадает с доказательством Джона Гершеля (1850). [ необходима цитата ] Гаусс дал первое доказательство, которое, по-видимому, было известно в Европе (третье после доказательства Адрена) в 1809 году. Дальнейшие доказательства были даны Лапласом (1810, 1812), Гауссом (1823), Джеймсом Айвори (1825, 1826), Хагеном (1837), Фридрихом Бесселем (1838), В. Ф. Донкиным (1844, 1856) и Морганом Крофтоном (1870). Другими участниками были Эллис (1844), Де Морган (1864), Глейшер (1872) и Джованни Скиапарелли (1875). Формула Петерса (1856) [ необходимо разъяснение ] для r , вероятной ошибки отдельного наблюдения, хорошо известна.
В девятнадцатом веке авторами общей теории были Лаплас , Сильвестр Лакруа (1816), Литтроу (1833), Адольф Кетле (1853), Рихард Дедекинд (1860), Гельмерт (1872), Герман Лоран (1873), Лиэгр, Дидион и Карл Пирсон . Август де Морган и Джордж Буль улучшили изложение теории.
В 1906 году Андрей Марков ввел [21] понятие цепей Маркова , которые сыграли важную роль в теории случайных процессов и ее приложениях. Современная теория вероятностей, основанная на теории меры, была разработана Андреем Колмогоровым в 1931 году. [22]
Что касается геометрии, то в The Educational Times внесли свой вклад Миллер, Крофтон, Макколл, Уолстенхолм, Уотсон и Артемас Мартин . [23] Для получения дополнительной информации см. Интегральную геометрию .
Как и другие теории , теория вероятности представляет собой представление своих концепций в формальных терминах – то есть в терминах, которые можно рассматривать отдельно от их значения. Эти формальные термины манипулируются правилами математики и логики, и любые результаты интерпретируются или переводятся обратно в проблемную область.
Было по крайней мере две успешные попытки формализовать вероятность, а именно формулировка Колмогорова и формулировка Кокса . В формулировке Колмогорова (см. также вероятностное пространство ) множества интерпретируются как события , а вероятность — как мера на классе множеств. В теореме Кокса вероятность берется как примитив (т. е. не подвергается дальнейшему анализу), и акцент делается на построении последовательного присвоения значений вероятности предложениям. В обоих случаях законы вероятности одинаковы, за исключением технических деталей.
Существуют и другие методы количественной оценки неопределенности, такие как теория Демпстера–Шейфера или теория возможностей , но они по сути своей отличаются и несовместимы с обычно понимаемыми законами вероятности.
Теория вероятности применяется в повседневной жизни при оценке и моделировании рисков . Страховая отрасль и рынки используют актуарную науку для определения цен и принятия торговых решений. Правительства применяют вероятностные методы в экологическом регулировании , анализе прав и финансовом регулировании .
Примером использования теории вероятности в торговле акциями является влияние предполагаемой вероятности любого широкомасштабного конфликта на Ближнем Востоке на цены на нефть, которые имеют волновой эффект в экономике в целом. Оценка трейдером сырьевых товаров того, что война более вероятна, может поднять или опустить цены на этот товар и подать сигнал другим трейдерам о том же мнении. Соответственно, вероятности не оцениваются независимо и не обязательно рационально. Теория поведенческих финансов возникла для описания влияния такого группового мышления на ценообразование, политику, а также на мир и конфликты. [24]
В дополнение к финансовой оценке, вероятность может использоваться для анализа тенденций в биологии (например, распространение болезней), а также экологии (например, биологические решётки Паннета ). [25] Как и в финансах, оценка риска может использоваться в качестве статистического инструмента для вычисления вероятности возникновения нежелательных событий и может помочь в реализации протоколов, чтобы избежать столкновения с такими обстоятельствами. Вероятность используется для разработки азартных игр , чтобы казино могли получать гарантированную прибыль, но при этом предоставлять выплаты игрокам достаточно часто, чтобы поощрять продолжение игры. [26]
Другим важным применением теории вероятностей в повседневной жизни является надежность . Многие потребительские товары, такие как автомобили и бытовая электроника, используют теорию надежности в разработке продукта для снижения вероятности отказа. Вероятность отказа может влиять на решения производителя о гарантии продукта . [27]
Модель кэшированного языка и другие статистические языковые модели , используемые при обработке естественного языка , также являются примерами применения теории вероятностей.
Рассмотрим эксперимент, который может дать несколько результатов. Совокупность всех возможных результатов называется выборочным пространством эксперимента, иногда обозначаемым как . Множество мощности выборочного пространства формируется путем рассмотрения всех различных наборов возможных результатов. Например, бросание игральной кости может дать шесть возможных результатов. Один набор возможных результатов дает нечетное число на игральной кости. Таким образом, подмножество {1,3,5} является элементом множества мощности выборочного пространства бросков игральных костей. Эти наборы называются «событиями». В этом случае {1,3,5} является событием, заключающимся в том, что игральная кость выпадает на некоторое нечетное число. Если результаты, которые действительно происходят, приходятся на данное событие, говорят, что событие произошло.
Вероятность — это способ присвоения каждому событию значения от нуля до единицы с требованием, чтобы событию, составленному из всех возможных результатов (в нашем примере, событию {1,2,3,4,5,6}), было присвоено значение один. Чтобы квалифицироваться как вероятность, присвоение значений должно удовлетворять требованию, что для любого набора взаимоисключающих событий (событий без общих результатов, таких как события {1,6}, {3} и {2,4}), вероятность того, что по крайней мере одно из событий произойдет, определяется суммой вероятностей всех отдельных событий. [28]
Вероятность события A записывается как , [29] или . [30] Это математическое определение вероятности можно распространить на бесконечные выборочные пространства и даже на несчетные выборочные пространства, используя концепцию меры.
Противоположностью или дополнением события A является событие [не A ] (то есть событие, при котором A не происходит), часто обозначаемое как , , или ; его вероятность определяется как P (не A ) = 1 − P ( A ) . [31] Например, вероятность того, что на шестигранной кости не выпадет шестерка, равна 1 – (вероятность выпадения шестерки) = 1 − 1/6 = 5/6 . Для более полного рассмотрения см. Дополнительное событие .
Если два события A и B происходят в ходе одного эксперимента, это называется пересечением или совместной вероятностью A и B и обозначается как
Если два события, A и B, независимы , то совместная вероятность равна [29]
P ( A и B ) = P ( A ∩ B ) = P ( A ) P ( B ) . {\displaystyle P(A{\mbox{ и }}B)=P(A\cap B)=P(A)P(B).}
Например, если подбросить две монеты, то вероятность того, что обе окажутся орлами, равна [32]
Если может произойти либо событие A , либо событие B, но не оба одновременно, то они называются взаимоисключающими событиями.
Если два события являются взаимоисключающими , то вероятность того, что оба события произойдут, обозначается как и Если два события являются взаимоисключающими , то вероятность того, что любое из них произойдут, обозначается как и
Например, вероятность выпадения 1 или 2 на шестигранной кости составляет
Если события не являются (обязательно) взаимоисключающими, то Переписано,
Например, при вытягивании карты из колоды карт вероятность получения карты с червой или картинкой (J, Q, K) (или обеих) равна, поскольку из 52 карт колоды 13 являются картами с червями, 12 — с картинками, а 3 — и теми, и другими: здесь возможности, включенные в «3, которые являются и теми, и другими», включены в каждую из «13 карт с червями» и «12 карт с картинками», но должны учитываться только один раз.
Это можно расширить еще больше для нескольких (не обязательно) взаимоисключающих событий. Для трех событий это происходит следующим образом: Можно видеть, что этот шаблон может быть повторен для любого количества событий.
Условная вероятность — это вероятность некоторого события A при условии наступления некоторого другого события B. Условная вероятность записываетсяи читается как «вероятность A при условии B ». Она определяется как [33]
Если то формально не определено этим выражением. В этом случае и независимы, так как Однако можно определить условную вероятность для некоторых событий с нулевой вероятностью, например, используя σ-алгебру таких событий (например, возникающих из непрерывной случайной величины ). [34]
Например, в мешке с 2 красными и 2 синими шарами (всего 4 шара) вероятность взять красный шар равна , однако при взятии второго шара вероятность того, что это будет либо красный, либо синий шар, зависит от предыдущего взятого шара. Например, если был взят красный шар, то вероятность снова выбрать красный шар будет равна , так как остались только 1 красный и 2 синих шара. А если ранее был взят синий шар, то вероятность взять красный шар будет равна
В теории вероятностей и приложениях правило Байеса связывает шансы события с событием до (до) и после (после) обусловливания другого события . Шансы на событие — это просто отношение вероятностей двух событий. Когда интерес представляет произвольное количество событий, а не только два, правило можно перефразировать как апостериорное пропорционально предыдущему умноженному на вероятность , где символ пропорциональности означает, что левая часть пропорциональна (т. е. равна константе, умноженной на) правой части, как изменяется, для фиксированного или заданного (Ли, 2012; Берч МакГрейн, 2012). В этой форме оно восходит к Лапласу (1774) и Курно (1843); см. Файнберг (2005).
В детерминированной вселенной, основанной на ньютоновских концепциях, не было бы никакой вероятности, если бы все условия были известны ( демон Лапласа ) (но есть ситуации, в которых чувствительность к начальным условиям превышает нашу способность их измерить, т. е. знать их). В случае рулеточного колеса, если сила руки и период этой силы известны, число, на котором остановится шарик, было бы определенным (хотя с практической точки зрения это, вероятно, было бы верно только для рулеточного колеса, которое не было точно выровнено — как показало «Ньютоновское казино » Томаса А. Басса ). Это также предполагает знание инерции и трения колеса, веса, гладкости и округлости шарика, изменений скорости руки во время поворота и т. д. Таким образом, вероятностное описание может быть более полезным, чем ньютоновская механика, для анализа закономерностей результатов повторных бросков рулеточного колеса. Физики сталкиваются с той же ситуацией в кинетической теории газов , где система, хотя и детерминированная в принципе , является настолько сложной (с числом молекул, как правило, порядка постоянной Авогадро 6,02 × 10 23 ), что возможно только статистическое описание его свойств. [35]
Теория вероятностей необходима для описания квантовых явлений. [36] Революционным открытием физики начала 20 века был случайный характер всех физических процессов, которые происходят в субатомных масштабах и управляются законами квантовой механики . Объективная волновая функция развивается детерминированно, но, согласно копенгагенской интерпретации , она имеет дело с вероятностями наблюдения, результат которого объясняется коллапсом волновой функции при проведении наблюдения. Однако потеря детерминизма ради инструментализма не получила всеобщего одобрения. Альберт Эйнштейн заметил в письме Максу Борну : «Я убежден, что Бог не играет в кости». [37] Как и Эйнштейн, Эрвин Шредингер , открывший волновую функцию, считал, что квантовая механика является статистическим приближением лежащей в основе детерминированной реальности . [38] В некоторых современных интерпретациях статистической механики измерения квантовая декогеренция привлекается для объяснения появления субъективно вероятностных экспериментальных результатов.
{{cite book}}
: CS1 maint: location missing publisher (link)[…] Квадрат Паннетта, по-видимому, был разработан в 1905 году, слишком поздно для первого издания его
«Менделизма»
(май 1905 г.), но во многом подтверждается в
Отчете III Эволюционному комитету Королевского общества
[(Bateson et al. 1906b) «получен 16 марта 1906 г.»]. Самое раннее упоминание содержится в письме Фрэнсиса Гальтона к Бейтсону от 1 октября 1905 года (Edwards 2012). У нас есть свидетельство Бейтсона (1909, стр. 57) о том, что «за введение этой системы [«графического метода»], которая значительно упрощает сложные случаи, я обязан г-ну Паннету». […] Первые опубликованные диаграммы появились в 1906 году. […] когда Паннетт опубликовал второе издание своего
«Менделизма»
, он использовал несколько иной формат ([…] Паннетт 1907, стр. 45) […] В третьем издании (Паннетт 1911, стр. 34) он вернулся к расположению […] с описанием построения того, что он назвал методом «шахматной доски» (хотя на самом деле это больше похоже на таблицу умножения). […]
(11 страниц)