В этой истории сначала мы обсудим, как происходит обучение с помощью Perceptron Kernal Trick.

Начнем со случайной строки. мы применяем цикл каждый раз, когда спрашиваем точку, правильно ли она классифицирована или нет. Если оно правильно классифицировано, ничего не делайте, если нет, то примените преобразование, чтобы приблизить это время к этой неправильно классифицированной точке. Итак, это основная теория этого трюка с персептроном.

Как вы можете видеть на рисунке выше. давайте предположим, что синий — это положительная область, а красный — отрицательная область. Если отрицательная точка лежит в положительной области, то добавьте единицу в конце координаты точки и вычтите из коэффициента линейного коэффициента. А если положительная точка лежит в отрицательной области, то добавьте единицу в конце координаты точки и добавьте в строке co-efficeint.

Percenptron очень гибкий. его можно использовать для задач регрессии, бинарной классификации и мультиклассовой классификации.

  1. Для классификации бинарных классов: - Мы используем восприятие для классификации бинарных классов. для этого мы должны использовать сигмовидную функцию активации и бинарную перекрестную энтропию в качестве функции потерь.
  2. Для многоклассовой классификации. Мы также используем восприятие для многоклассовой классификации. для этого мы должны использовать функцию активации softmax и категориальную перекрестную энтропию в качестве функции потерь.
  3. Для регрессии: Активация является линейной, а среднеквадратическая ошибка является функцией потерь.

«Подробнее см. на рисунке ниже — »

Дмитро Якубовский, JJ Espinoza, AHMAD SACHAL, Deep Learning Türkiye, AIIP. Платформа для инвестиций в искусственный интеллект, AI Perceptron Дайджест машинного обучения