RTB — назначение ставок в реальном времени

RTB работает следующим образом: когда посетитель попадает на веб-страницу, браузер отправляет запрос на рекламный сервер, который затем помещает этот запрос на биржу, где программное обеспечение может делать ставки на эти показы. Потенциальные рекламодатели (или, точнее, их программное обеспечение) анализируют показы и решают, как они хотят делать ставки, если вообще хотят. Биржа собирает все заявки и присуждает рекламное место победителю. Все это происходит за то время, которое требуется для загрузки веб-страницы.

Supply Side Platform (SSP) — рекламная сеть, предлагающая место в аукционе за показы рекламы.

Demand Side Platform (DSP) — рекламная сеть, предоставляющая рекламу на аукционе — видео, баннеры и т. д. (покупатель).

Платформа управления данными (DMP) — поставщик пользовательских данных.

Agency Trading Desk — платформа, которая помогает рекламодателям покупать аудиторию в большом объеме в цифровых медиа. Кроме того, это помогает сделать это более эффективно.

Издатель — владелец сайта.

ВВОД

«Ключевой ввод — это данные»

Этот покупатель обуви, который получает рекламу кроссовок и стелек, когда он путешествует по сети, носит с собой свои ценные виртуальные данные. Все, начиная с его браузера, времени суток, когда он занимается серфингом, на что он нажимал, где он живет, что ему «нравится» в социальных сетях, может быть собрано для создания профиля. Чем больше данных можно собрать о человеке, тем точнее становится этот профиль. Данные могут быть получены от самих маркетологов, из файлов cookie браузера и от сторонних агрегаторов.

ПРЕДЛАГАЕМОЕ РЕШЕНИЕ

При обучении с подкреплением алгоритм автоматически определяет, каким должно быть идеальное поведение в данной среде, чтобы максимизировать поставленную цель. В этом случае среда представляет собой ставку в режиме реального времени на показы рекламы, а целью может быть создание потенциальных клиентов, продаж или любого показателя эффективности рекламной кампании, полученного от клиента.

Если алгоритм видит аудиторию, которая, по его мнению, имеет низкую вероятность покупки продукта или создания лида (на основе того профиля данных, который мы отметили выше), он может избежать ставок на эти показы на аукционе. Он также может показывать рекламу этим клиентам реже. Оба подхода экономят деньги маркетологов, поскольку они не тратят доллары впустую в погоне за клиентами, которых у них меньше шансов выиграть.

Если алгоритм видит аудиторию с высокой вероятностью нажатия на объявление, он может автоматически изменить ставку, чтобы снизить среднюю стоимость, но при этом выиграть подавляющее большинство аукционов.

Обучение с подкреплением — очень специфическая часть ИИ. Он отличается от стандартных задач машинного обучения (т. е. классификации и регрессии) главным образом тем, что модель не может предсказать истинного.

В шахматах единственный способ определить, какое действие следует предпринять, — это поэкспериментировать с несколько случайными действиями и посмотреть, какие ходы привели к победе, а какие — к проигрышу.

В RTB проблема, которую мы пытаемся решить, состоит в том, чтобы найти минимальную выигрышную ставку для конкретного показа, то есть ставку, которая выиграет аукцион, но все, что ниже, проиграет. Очевидно, что такое значение никогда не наблюдается. Все, что делает участник торгов, это то, была ли его ставка достаточно высокой, чтобы выиграть аукцион. Это делает проблему обучения с подкреплением, потому что Модель должна совершить действие (значение ставки) и получить немедленное вознаграждение (прибыль). Со временем Модель адаптируется, чтобы максимизировать ожидаемую прибыль в зависимости от предоставленной заявки.

ОГРАНИЧЕНИЯ:

Основная проблема при разработке модели RL заключается в том, что она обучается «на лету». Это означает, что типичными решениями являются инициализация случайной политики, внедрение в среду и предоставление модели возможности действовать и учиться на них. Это вызывает проблему, потому что перенаправляет часть трафика на модель, которая сначала делает ставки случайным образом, и трудно оценить, сколько времени потребуется модели, чтобы научиться выдавать разумные ставки.

Пример:

Проверьте максимальную ставку вашей кампании. Если текущая максимальная ставка не приносит показов, значительно увеличьте ее, чтобы знать ставки ваших конкурентов. Например, если вы увеличите максимальную ставку CPM с 1 доллара США до 5 долларов США, ваша новая максимальная ставка CPM составит 5 долларов США. Это означает, что ваша ставка не будет принята, если стоимость размещения рекламы превышает 5 долларов США.

Назначение высокой ставки состоит в том, чтобы вы увидели, сколько все (ваши конкуренты) предлагают за одну и ту же целевую аудиторию. Если вы выигрываете показы по цене 1,60 долл. США за тысячу показов, это означает, что у вас самая высокая цена за тысячу показов среди других участников торгов. Что вы можете сделать, так это изменить свою ставку с 5 долларов США до 1,60 доллара США + 20%, чтобы убедиться, что вы продолжаете выигрывать. В этом случае вы можете установить цену за тысячу показов на 1,90 доллара США больше или меньше.

После корректировки максимальной ставки CPM наблюдайте за эффективностью своих кампаний, снова анализируйте трафик и продолжайте корректировать ставку CPM.

Эксперименты для оценки:

Первый этап этапа оптимизации — это этап тестирования, на котором часть бюджета и показов тратится на тестирование.

Обычно на каждого издателя тратится тысяча показов, чтобы он мог угнаться за темпом, и после просмотра производительности и отклика выполняется соответствующая оптимизация. Это правда, что это полностью зависит от кампании. Тест кампании может быть очень маленьким в кампаниях с низким бюджетом, что косвенно означает, что теперь ответ кампании полностью зависит от вероятности поймать пользователя, иногда 100 показов дают нам конверсию, а иногда много тестов. не помогай. Таким образом, оптимизация не имеет правила, обеспечивающего успех, но да, вероятность всегда может быть низкой и высокой.