В октябре прошлого года было обнаружено, что алгоритм здравоохранения, затрагивающий 200 миллионов человек в Соединенных Штатах, имеет расовые предубеждения против чернокожих. Такое событие выдвигает на первый план неоднозначную реальность: алгоритмы все больше вовлекаются в процесс здравоохранения, однако их использование недостаточно защищено для предотвращения социально нежелательных последствий. Проще говоря, можем ли мы полагаться на алгоритмы для обеспечения здоровья пациентов?

Алгоритмы в здравоохранении: множество возможностей

Ключевым преимуществом алгоритмов является их способность обрабатывать гораздо больше данных с гораздо большей скоростью, чем наш человеческий мозг. Неудивительно, что эти возможности открывают совершенно новые перспективы в области диагностики и лечения. Одним из пионеров, предлагающих такую ​​поддержку, является Watson на основе искусственного интеллекта от IBM, который используется в качестве инструмента поддержки лечения в онкологии. Конкретно, Watson предлагает беспрецедентные возможности NLP (обработка естественного языка), которые исследователи могут использовать для превращения больших наборов данных в персонализированные рекомендации по лечению: инструмент способен понимать голосовые записи и почерк врачей и сопоставлять их с последними доступными исследованиями и результатами. В соответствии с этим развитием алгоритмы также могут обеспечить оцифровку цепочки диагностики. Например, в Соединенном Королевстве медицинский стартап Babylon Health запустил приложение, предлагающее чат-бот на основе ИИ, позволяющий пациентам описывать свои симптомы, чтобы получить совет и связаться с врачом общей практики (ВОП). Babylon использует глубокое обучение, чтобы сделать рекомендации алгоритма все более и более точными по мере того, как в него загружается все больше и больше данных. Эта услуга особенно актуальна в контексте смены парадигмы в сторону телемедицины и долгосрочной тенденции бюджетных ограничений на расходы на здравоохранение в западных странах. В дополнение к этой поддержке в принятии решений алгоритмы могут улучшить глобальный процесс доступа к здравоохранению. Например, в США компания Optum разработала алгоритм, используемый несколькими поставщиками медицинских услуг для прогнозирования, какие пациенты больше всего нуждаются в дополнительной медицинской помощи. На практике больницы присваивают оценку риска каждому пациенту благодаря алгоритмам, а затем выбирают наиболее уязвимых пациентов (верхние 3%) для получения дополнительных медицинских ресурсов (тщательный мониторинг, дополнительные визиты к первичной медицинской помощи, конкретный номер набора).

Неэффективные и несправедливые алгоритмы?

Тем не менее, использование алгоритмов в здравоохранении вызвало многочисленные споры в публичном пространстве. В июне 2018 года просочились конфиденциальные документы IBM, в которых говорилось, что ее широко продаваемый суперкомпьютер с искусственным интеллектом Watson рекомендовал «небезопасные и неправильные» методы лечения рака, а предыдущие комментарии датских онкологов подтверждали это утверждение. Точно так же многие врачи общей практики NHS резко раскритиковали вводящее в заблуждение обещание Babylon Health заменить врачей, поскольку оно заставляет пациентов чрезмерно доверять приложению и, следовательно, вести себя рискованно. В дополнение к этим проблемам с надежностью, алгоритмы также вызвали потрясения из-за их неспособности обработать всех пациентов одинаково. В этом смысле Optum иллюстрирует крайний случай такой несправедливости: алгоритм , который затронул более 200 миллионов человек, был признан расово предвзятым в отношении чернокожих.

Эти сбои, в частности, связаны с использованием ненадежных или необъективных данных. В случае с Optum, поскольку алгоритм предсказывал будущее состояние здоровья человека на основе его исторического, он был обречен воспроизводить предыдущие предубеждения: а именно тот факт, что черные пациенты часто в меньшей степени врачам по причинам, не связанным с их состоянием здоровья (предполагаемые расовые предубеждения врача или что-то другое). Еще одна проблема, связанная с данными в области здравоохранения, — это риск переобучения. Переобучение — это разработка алгоритма, который слишком близко или точно соответствует определенному набору данных и, следовательно, не может делать прогнозы на другой выборке. Этот риск особенно заметен в секторе здравоохранения, поскольку популяции сильно различаются биологически в зависимости от их географического положения и поскольку клетки и молекулы постоянно мутируют. Это может объяснить, почему Watson тренировались не на реальных пациентах, а на наборе данных теоретических, разработанных группой американских врачей, и добились таких плохих результатов в Дании.

Наряду с ненадежными данными несовершенная конструкция алгоритма также может повредить его возможностям. Первой причиной мог быть плохой выбор переменных : в случае с Optum использование затрат на здравоохранение в качестве прокси для определения состояния здоровья пациента исказило анализ, поскольку уровень медицинских расходов в год ниже для чернокожих пациентов, чем для белых пациентов с тем же заболеванием. Тем не менее, даже если включение физиологических данных, таких как медицинские записи, уменьшит погрешность на 84 %, по словам исследователя Зиада Обермейера, инициировавшего полемику, унифицированных баз данных о показателях здоровья пациентов не хватает. Алгоритм также может быть ограничен структурным отсутствием возможностей обработки, например, неспособностью IBM Watson обрабатывать динамические данные, основанные на эволюции состояния здоровья. Более того, помимо этих технических проблем, дебаты заслуживают обсуждения. следует отметить отсутствие разнообразия среди разработчиков алгоритмов и потенциальное влияние на идеологическую предвзятость таких инструментов. На сегодняшний день программистом обычно является белый мужчина, проживающий в Соединенных Штатах или, все чаще, в Китае.

На моральном уровне необходимо провести общеотраслевую дискуссию, чтобы должным образом обсудить и зафиксировать роль и ожидания технологий на основе ИИ в здравоохранении. В настоящее время технология позволяет алгоритмам обрабатывать только значительные, но недостаточные объемы данных для извлечения потенциальных корреляций без возможности объяснить причины (аспект ИИ в виде черного ящика).

Врачи, с другой стороны, ожидают дважды, трижды проверенных источников с доказанной причинно-следственной связью и никогда не принимают простые корреляции в качестве доказательства (золотое правило). Онколог, например, склонен игнорировать рекомендации IBM Watson, если они не согласны, просто потому, что Watson не может их объяснить. Это несоответствие между тем, как учатся машины, и тем, как работают врачи, ставит вопрос о точной роли алгоритмов в здоровье: наша цель — создать замену или простое дополнение? Должен ли Babylon Health стремиться частично заменить врачей общей практики? Обречен ли Watson быть простым инструментом подтверждения, другими словами, просто причудливым автоматизированным поиском Google?

Долгий путь, прежде чем оправдать ожидания

Потенциал ИИ в здравоохранении таков, что он вполне может привести к следующей революции в здравоохранении. Алгоритмы могут снизить затраты на обработку для пациентов, повысить эффективность работы врачей, уменьшить количество ошибок, предлагая подтверждения на основе данных, и все это при обработке растущего числа потребителей тяжелых медицинских услуг. Тем не менее, эксперты в области искусственного интеллекта и здравоохранения согласны с тем, что технология все еще находится на ранней стадии развития и, помимо ограниченных областей, алгоритмы, вероятно, помогут врачам в качестве вспомогательного инструмента, а не заменят их в следующем десятилетии. Также существует острая потребность в структурных изменениях и большем разнообразии среди разработчиков. Это, в сочетании с аудитом фактум, может помочь контролировать предубеждения или нежелательные негативные социальные внешние эффекты и устранять их устойчивым образом. Наконец, если мы действительно хотим раскрыть весь потенциал машинного обучения в области здравоохранения и выйти за рамки простого интеллектуального вспомогательного инструмента, нам необходимо обучать наши алгоритмы на максимально больших наборах данных, а для этого необходимо иметь настоящее # Политика OpenHealthData по всему миру.