Теорема Байеса, названная в честь известного британского математика Томаса Байеса, представляет собой очень известную теорему, используемую для расчета вероятности события на основе имеющихся сценариев или знаний о других связанных событиях. Эта теорема была обнаружена среди бумаг английского пресвитерианского священника и математика Томаса Байеса и опубликована посмертно в 1763 году и послужила основой очень известной модели машинного обучения, наивной модели Байеса, которая используется для классификации данных путем рассмотрения вероятностей.

Внимательно посмотрите на приведенную выше формулу, поначалу она может показаться запутанной, но давайте разберем формулу, чтобы понять ее различные части. Но прежде чем мы углубимся в детали формулы, давайте разберемся с некоторыми предварительными терминами и теориями.

Поскольку при определении шансов события мы имеем дело с несколькими событиями, мы имеем дело с двумя типами событий.

Во-первых, в случае нескольких событий иногда возникновение одного события не влияет на вероятность/шанс возникновения другого события. Например: это финал чемпионата мира по футболу, Аргентина собирается исполнить два последних пенальти, результатом пенальти может быть либо гол, либо отсутствие гола. Два игрока, Месси и Дибала, должны исполнить пенальти. Повлияет ли результат пенальти Дибалы на результат пенальти Месси? Конечно, нет, каждый игрок должен выполнять свои собственные штрафы, и тот факт, что первый игрок забьет гол или нет, не повлияет на результат штрафа второго игрока. Это пример НЕЗАВИСИМОСТИ СОБЫТИЙ, когда исход одного события не влияет на вероятность исхода другого события.

Далее взглянем на банку, наполненную 6 шариками, на каждом шарике есть число от 1 до 6. Вы, читатель этой статьи, должны взять случайный шарик из банки. После того, как шарик подобран, его нельзя положить обратно в банку, вместо этого он откладывается в сторону и не подлежит дальнейшему отбору. Теперь, повлияет ли выбор шарика из банки на вероятность выпадения других шариков в банке после выбора? Да, это будет. Как? давайте посмотрим на рисунок ниже.

Поскольку результат выбора каждого шарика влияет на вероятность исхода других оставшихся шариков, это не пример независимых событий, а такие события называются ЗАВИСИМЫМИ СОБЫТИЯМИ.

Но почему мы узнали о Независимости событий? чтобы понять правило произведения. Когда два события независимы, и мы хотим выяснить пересечение событий, т. е. вероятность того, что оба события A Исобытие B совпадают существует или выполняется, мы перемножаем вероятности независимых событий.

Давайте разберемся с этим и на примере футбола. В футбольном клубе 50 % игроков — правши, а остальные 50 % — левши. 37,5% игроков расходятся во время подачи углового. Являются ли эти события независимыми? Да, так как назначение левоногого игрока на угловой никоим образом не влияет на вероятность выбора правоногого игрока при следующем ударе. Теперь, какова вероятность того, что при подаче правого угла игрок выпадет из отряда из 16 человек?

В приведенном выше сценарии мы рассмотрели независимые события и правило продукта. Однако это правило в приведенной выше форме не работает для зависимых событий, когда результат одного события влияет на результат другого события. В таких случаях мы рассчитываем условные вероятности. Условная вероятность — это вероятность того, что событие (скажем, B) произойдет, когда событие (скажем, A) уже произошло. Формула для расчета условной вероятности в общем случае приведена ниже.

Давайте разберемся в этой, казалось бы, сложной формуле с помощью очень известной головоломки. Предположим, что в семье двое детей. Какова вероятность того, что оба девочки, если хотя бы одна из них девочка? Теперь быстрый ответ на это многих людей, включая меня в первый раз, был 0,5, поскольку есть две возможности, либо мальчик, либо девочка, поэтому вероятность получить любую из них была 0,5. Но так как мы теперь знаем об условных вероятностях и можем видеть из вопроса, что появление одного события (присутствие одной девочки) явно повлияет на вероятность исхода пола второго ребенка, мы будем рассматривать эти зависимые события и решать его с помощью формула условной вероятности.

Но почему мы обсуждаем условные вероятности и как они связаны с правилом произведения? Простое правило продукта для независимых событий можно увидеть здесь. Однако для зависимых событий он принимает форму

Мы делаем это, потому что в случае зависимых событий событие B не получается напрямую, а получается путем просмотра уже произошедшего события A.

Вы можете использовать значения на рис. 4, чтобы ввести их в формулу правила продукта для зависимых событий, чтобы получить пересечение для зависимых событий A и B.

Обсудив предварительные термины и поняв их, давайте теперь обратим внимание на теорему Байеса, которая представляет основной интерес для нашей статьи.

В теории вероятностей и статистике теорема Байеса (альтернативно закон Байеса или правило Байеса), названная в честь Томаса Байеса, описывает вероятность события на основе предварительного знания условий, которые могут быть связаны с этим событием.

Формулу теоремы Байеса можно посмотреть Здесь.

Вы находитесь на острове, где 60 % дней в году идет дождь. На острове есть местная система прогноза погоды, которая правильно предсказывает дождь в 85% случаев. Система прогнозирования погоды предсказывает, что завтра будет дождь с вероятностью 30%. Какова вероятность того, что завтра действительно пойдет дождь?

Вот как теорема Байеса используется для предсказания вероятности события, происходящего из нескольких событий, при условии, что какое-то другое событие уже произошло.

В теореме Байеса или условной вероятности событие, вероятность которого была известна независимо от возникновения любого другого события, называется априорным, а событие, вероятность которого рассчитывается после наступления события, называется апостериорным.

Наивная теорема Байеса основана на вероятности гипотезы при наличии данных и некоторых предварительных знаний. Наивный байесовский классификатор предполагает, что все признаки во входных данных независимы друг от друга.

Этот алгоритм используется для целей классификации, и он делает это, рассматривая априорную независимость от всех событий, а затем вычисляя вероятность возникновения каждого класса по отношению к нему. Таким образом, он вычисляет вероятности и относит конкретный объект к наивысшему классу вероятности.

Он называется наивным из-за того, что считает входные функции независимыми без каких-либо предположений. А поскольку в основе лежит теорема Байеса, она известна как наивная теорема Байеса.

Этот блог — попытка описать теорему Байеса, которая очень сложна для многих людей, так, чтобы ее было легко понять. Эту теорему очень важно усвоить, поскольку именно она работает за кулисами очень известной модели классификации, наивной байесовской модели.

Кроме того, я хотел бы поблагодарить deeplearning.ai и Луиса Серрано за их подробный курс по статистике под названием «Вероятность и статистика для машинного обучения и науки о данных», который помог мне развить мою статистическую интуицию. Их видео и курс настоятельно рекомендуются всем, кто хочет изучать статистику для науки о данных.

Если вы нашли объяснение полезным и интуитивно понятным, вы можете поаплодировать истории и прокомментировать любые отзывы, которые у вас могут быть, или предложения по улучшению будущих историй.

Спасибо !