Введение

В последние годы машинное обучение добилось значительного прогресса, позволив добиться прогресса в различных областях, от создания изображений до обработки естественного языка. Однако по мере того, как мы используем возможности глубоких нейронных сетей и технологий искусственного интеллекта, крайне важно действовать осторожно и устранять потенциальные риски, связанные с их широким использованием.

Недавно компания Google, руководствуясь своими принципами искусственного интеллекта, опубликовала статью под заголовком «Объявляем о первом испытании машинного обучения», в котором представляет испытание, связанное с темой машинного обучения. и признает важность ответственного развития и стремится понимать и снижать риски, такие как несправедливые предубеждения и проблемы с конфиденциальностью.

Проблема устранения влияния данных

Удаление данных из баз данных — это только первый шаг к сохранению конфиденциальности. Однако влияние удаленных данных все еще может сохраняться в обученных моделях машинного обучения. Недавние исследования выявили возможность атак на вывод о членстве (MIA), когда становится возможным сделать вывод, использовались ли данные человека для обучения модели, даже если эти данные были удалены. Это вызывает серьезные опасения в отношении конфиденциальности и требует разработки методов устранения влияния конкретных обучающих примеров.

Представляем машинное обучение

Машинное разобучение возникло как подобласть машинного обучения, которая фокусируется на устранении влияния назначенного набора обучающих примеров, часто называемого «набором забываний», из обученной модели. Идеальный алгоритм отучения должен эффективно устранять влияние набора забываний, сохраняя при этом точность модели на оставшемся обучающем наборе и ее способность обобщать новые примеры. Переобучение модели на скорректированном обучающем наборе, который исключает набор забываний, является одним из подходов, но для глубоких моделей он может быть дорогостоящим в вычислительном отношении. Таким образом, крайне желательны эффективные алгоритмы отучения, которые работают с уже обученными моделями.

Проблема разучивания машины

Чтобы продвигать современное состояние машинного отучения и способствовать разработке эффективных, действенных и этичных алгоритмов отучения, Google сотрудничал с разнообразной группой академических и промышленных исследователей, чтобы организовать первый вызов машинного отучения. Это захватывающее соревнование, проводимое на Kaggle, вращается вокруг реалистичного сценария, в котором необходимо забыть о подмножестве обучающих изображений, чтобы защитить конфиденциальность или личные права. Работы, представленные на конкурс, будут оцениваться на основе игнорирования качества и полезности модели.

Применение машинного обучения

Применение машинного отучения выходит за рамки защиты конфиденциальности. Отказ от обучения можно использовать для удаления неточной или устаревшей информации из обученных моделей, например ошибок в маркировке или изменений в окружающей среде. Это также помогает удалять вредные, измененные или выбросы данных, способствуя устойчивости и надежности систем искусственного интеллекта. Машинное разучивание пересекается со смежными областями машинного обучения, включая дифференциальную конфиденциальность, обучение на протяжении всей жизни и справедливость. Устраняя влияние конкретных примеров, разучивание может способствовать справедливости, исправляя предубеждения и обращаясь к неодинаковому отношению к различным группам.

Заключение

Машинное разучивание — важный аспект ответственной и этичной разработки ИИ. Стремление Google понять и снизить риски, связанные с технологиями искусственного интеллекта, привело к созданию первой задачи машинного обучения. Этот конкурс предоставляет исследователям и практикам платформу для изучения новых решений, установления стандартов оценки и продвижения в области машинного обучения. По мере того, как мы ориентируемся в будущем ИИ, крайне важно уделять приоритетное внимание конфиденциальности, справедливости и постоянному совершенствованию систем ИИ с помощью ответственных методов разработки. Задача Machine Unlearning Challenge представляет собой важный шаг на пути к достижению этих целей и обеспечению более этичного и ответственного ландшафта ИИ.

Больше историй

Как уменьшить размер модели ИИ, сохранив при этом производительность? ⚡ ✂️

Сделайте свою жизнь проще с решениями на базе GPT-3

Режим Pytorch 2.x Eager против режима Graph

[1] https://ai.googleblog.com/2023/06/announcing-first-machine-unlearning.html?m=1