Программа просто не может сказать, что «интересно»

Google просто отключил свою камеру Clips, крошечное устройство, которое должно было снимать небольшие фрагменты вашего дня, которые в противном случае могли бы ускользнуть.

Может быть, он сфотографирует вашего ребенка, улыбающегося, когда вы собираетесь его забрать, или вашей собаки, виляющей хвостом, когда вы входите в дверь. Но когда рецензенты и потребители заполучили устройство, эта сказка не оправдалась.

Я носил фотоаппарат на воротнике рубашки, играя с дочерью, надеясь, что он запечатлел все ее улыбки в 7-недельном возрасте. Зашел в приложение, ничего. Я был потрясен , - написал один рецензент на сайте Best Buy.

Google обещал использовать искусственный интеллект. запечатлеть интересные моменты нашей жизни, и в этом и заключалась настоящая проблема: нет единого определения интересного.

Как пользователю вам приходилось много времени показывать Google, что вы хотите, чтобы он сфотографировал. Черлин Лоу из Engadget в прошлом году писала, что обучила ИИ Клипса. в ее истории Google Фото, якобы дневнике ее визуальных предпочтений, и все еще не могла получить его, чтобы надежно сфотографировать ее собаку или друзей.

Мы знаем, что А. умеет делать: принимать решение с четко правильным ответом. Если на изображении изображена собака, Google может ее идентифицировать. Собака - это факт. Но чтобы Google мог определить, когда ваша собака делает то, что вы хотите снова увидеть, например, виноватое лицо, которое она делает после рытья мусора, ему требуется тонна внешней информации, которая не будет одинаковой для каждого пользователя.

Другими словами, А. не работает, когда нужно количественно оценить что-то качественное. Это зависит от того, заслуживает ли человек доверия, до того, хорошая или плохая фотография.

«По сути, мы пытаемся научить английского двухлетнего ребенка, читая Шекспира вместо « Давай, пес ». Вперед!

Изначально Google надеялся исправить эту проблему, обучив камеру изображениям профессиональных фотографов, чтобы изображения, снятые камерой, напоминали кадрирование и композицию профи, но, согласно сообщению в блоге Google за 2018 год, это оказалось слишком неоднозначным. цель.

«У нас были романтические разговоры о глубине резкости, правиле третей, драматическом освещении, совпадениях, повествовании… но я понял, что мы никогда не должны недооценивать глубокую человеческую способность обладать здравым смыслом», - написал дизайнер Clips UX Джош Лавджой. «По сути, мы пытаемся научить английского двухлетнего ребенка, читая Шекспира, а не Давай, собака. Вперед!

Поэтому вместо этого дизайнеры определили более распространенные ошибки, которые могла бы делать камера, например, делать плохие фотографии, которые были размытыми или затемненными, и попытались оптимизировать камеру, чтобы плохие результаты появлялись реже.

Это вернуло работу пользователю. Клипы требовали от них выбора высококачественных изображений, снятых камерой, тем самым обучая искусственный интеллект. какие фотографии были «правильными», хотя нет гарантии, что камера узнает, почему фотография была хорошей. Вместо того, чтобы вручную использовать камеру при съемке, вы вручную тренировали камеру, чтобы в следующий раз сделать хороший снимок. Это была вложение времени в надежде на неопределенный доход - после того, как вы уже выложили 250 долларов за само устройство.

Создатели устройства даже признали эти недостатки.

«В контексте субъективности и персонализации совершенство просто невозможно, и это даже не должно быть целью. В отличие от традиционной разработки программного обеспечения, системы машинного обучения никогда не будут «свободными от ошибок», потому что прогнозирование - это от природы нечеткая наука », - писал Лавджой.