В предыдущей статье мы познакомились с мотивацией PAC-байесовского анализа. Мы видели, как мы выполняем мягкое выделение вместо жесткого. Мы также увидели, как мы можем определить границу обобщения при использовании мягкого отбора, то есть мы можем оценить, насколько хорошо мы оцениваем нашу модель для работы с невидимыми данными. В этой статье мы увидим, как мы можем реализовать эти границы обобщения с помощью Python. В этой статье мы будем использовать Дивергенцию KL, которая была представлена ​​в следующей статье.