2024/07/18 18:45:57

Чат-боты в здравоохранении: как защитить интересы пользователей

Благодаря активному развитию технологий в сфере искусственного интеллекта, насущным стал вопрос об этических принципах искусственного интеллекта (ИИ), особенно для чат-ботов в сфере здравоохранения.

Содержание

Основные статьи:


На законодательном уровне отношения, связанные с этическими аспектами технологий ИИ, в настоящее время слабо урегулированы. С одной стороны, существует огромный пласт разрозненных и не систематизированных правовых норм, положения которых в той или иной степени затрагивают эту сферу, а следовательно, должны неукоснительно соблюдаться. С другой стороны, разработан Кодекс этики искусственного интеллекта, который поддержан крупнейшими игроками рынка ИИ в России, но, к сожалению, носит лишь рекомендательный характер.ИТ-директор «Роснефти» Дмитрий Ломилин выступит на TAdviser SummIT 28 ноября

В то же время, сфера здравоохранения является особой "территорией", и риск негативного влияния ИИ на жизнь и здоровье человека в ней выше. Как отследить и не нарушить границы допустимого, расскажем в нашей статье.

Что рекомендует Кодекс этики искусственного интеллекта (Кодекс)

1. Обеспечьте соблюдение закона

Вопреки очевидности этой рекомендации, ее смело можно назвать основополагающей. Каким бы несовершенным ни было законодательство, это не является основанием для его нарушения.

Участники рынка ИИ должны знать и соблюдать положения российского законодательства во всех сферах своей деятельности и на всех этапах создания, внедрения и использования технологий ИИ, в том числе в вопросах собственной юридической ответственности.

2. Проводите оценку рисков и гуманитарного воздействия

Участникам рынка ИИ рекомендовано проводить тщательную оценку потенциальных рисков, связанных с использованием систем ИИ, включая:

  • анализ возможных социальных последствий для человека, общества и государства;
  • анализ гуманитарного воздействия таких систем на права и свободы человека на различных этапах их жизненного цикла, начиная с формирования и использования наборов данных.

Для того, чтобы повысить эффективность этих процедур, рекомендовано мониторировать возникающие риски на долгосрочной основе. А в отдельных случаях, особенно при использовании ИИ в критически важных приложениях (приложения в сфере здравоохранения можно смело отнести к этой категории), для проведения оценки рисков и предотвращения потенциальных угроз предлагается привлекать независимых третьих лиц или официальные уполномоченные органы.

3. Внедряйте риск-ориентированный подход

Разработчики Кодекса убеждены, что уровень внимания к этическим вопросам в области ИИ и действия людей и компаний, занимающихся ИИ, должны соответствовать уровню рисков, которые эти технологии могут представлять для общества.

В этой связи рекомендовано разрабатывать и использовать методики оценки рисков, связанных с ИИ, включающие как уже известные угрозы, так и возможные, и анализ не только вероятности их возникновения, но и их возможных последствий как в ближайшее время, так и в будущем.

4. Внедряйте добровольную сертификацию

Разработчики продуктов на базе ИИ могут внедрять системы добровольной сертификации соответствия этих технологий нормам, установленным действующим законодательством и Кодексом. Для этих целей предлагается создавать системы добровольной сертификации и маркировки систем ИИ, свидетельствующие о прохождении данными системами процедур добровольной сертификации и подтверждающие стандарты качества.

Законодательные ограничения для «живого интеллекта», применимые к ИИ

Да, прямые законодательные нормы, регулирующие пределы дозволенного для технологий ИИ в сфере здравоохранения, пока отсутствуют. Но мы вправе использовать в качестве маркеров предельно допустимого установленные законом ограничения, действующие для дистанционного консультирования, осуществляемого так называемым «живым интеллектом». Речь об ограничениях, установленных для врачей при оказании помощи с применением телемедицинских технологий. Ведь то, что не позволено человеку, законодатель однозначно не позволит и искусственному интеллекту.

Итак, оказывая помощь в формате телемедицинской консультации, врач:

  • вправе изменять ранее назначенное пациенту лечение лишь при условии, что диагноз был установлен и лечение было назначено на очном приеме;
  • вправе рекомендовать не более, чем предварительные обследования, в случае если пациенту еще не поставлен диагноз и не назначено лечение;
  • вправе консультировать пациентов в возрасте от 18 лет;
  • не вправе консультировать больных инфекционными заболеваниями;
  • не вправе консультировать по заболеваниям, при которых медицинская помощь оказывается в экстренной или неотложной форме
  • в случае назначения пациенту мониторинга состояния его здоровья с помощью специального мобильного приложения, обязан предварительно разъяснить ему правила пользования таким приложением и порядок выполнения пациентом самостоятельных действий в случае отклонения показателей состояния его здоровья от предельных значений, а также необходимость неукоснительного соблюдения указанных правил.

Этого перечня ограничений в едином виде не существует, он составлен на основе различных законных и подзаконных актов, в числе которых:

Безусловно, приведенный перечень ограничений не является исчерпывающим, но на него можно опираться, выстраивая стратегию разработки, определения возможного функционала и внедрения продуктов на базе ИИ в сфере медицинского консультирования. И можно с уверенностью утверждать, что ИИ-технологии, которые позволили бы пользователям и специалистам избежать таких ограничений, однозначно окажутся как за рамками этических ограничений (см. п.1 выше), так и вне закона.

Прогнозы и рекомендации

Разобравшись в существующих ориентирах и потенциальных ограничениях, можно попытаться спрогнозировать дальнейшее развитие отраслевого законодательства и правовые перспективы проектов, направленных на создание технологий на базе ИИ в сфере здравоохранения.

1. Введение экспериментального режима

Благодаря принятию в 2020 году федерального закона №258-ФЗ «Об экспериментальных правовых режимах в сфере цифровых инноваций в РФ» в правоприменительную практику внедрен наиболее эффективный способ адаптации существующей законодательной системы к стремительному развитию технологий.

Именно поэтому следующий шаг, который участникам рынка ИИ следует ожидать от регулятора – это введение соответствующего экспериментального режима, в рамках которого будет определен точный перечень и условия использования ИИ-технологий в сфере консультирования пользователей по вопросам здоровья и получения медицинской помощи.

При этом не следует ждать сенсаций. Несмотря на то, что в рамках уже применяемых экспериментальных режимов, действительно, расширяются границы допустимого, тем не менее, это не означает, что разработка и применение новых технологий будут происходить в условиях полного отказа от соблюдения требований законодательства. В любом случае, в рамках такого режима отступление от общего регулирования будет минимизировано.

2. Создание компенсационного фонда участников экспериментального режима

Как участники рынка ИИ, так и регулятор видят в качестве ключевого риска внедрения технологий на базе ИИ в медицинскую сферу риск утечек персональных данных. По мнению представителей отрасли, в случае внедрения экспериментального режима, о котором сказано выше, необходимо предусмотреть создание его участниками компенсационного фонда. В этом случае пользователям будут предоставлены возможности получить информацию об использовании их данных, направить жалобу и получить возмещение в случае причинения им вреда.

3. Введение страхования ответственности

Еще одна обсуждаемая участниками отрасли проблема — это разграничение ответственности за причинение пользователям вреда при использовании технологий на базе ИИ в сфере консультирования по вопросам здоровья и получения медицинской помощи между разработчиками и провайдерами услуг. Ее решение видится в ведении страхования ответственности каждого из участников этой цепи. Несмотря на отсутствие требований об обязательном страховании, разработчикам ИИ-технологий и участникам рынка уже доступно внедрение страхования ответственности на добровольной основе. И внедрение этого инструмента на данном этапе как нельзя более эффективно отвечает требованиям этических норм.

4. Детальная проработка условий использования технологии пользователями/разработка корректных дисклеймеров

Внедрение новых продуктов и технологий – не односторонний процесс. Пользователи должны не просто соблазниться возможностью упростить и улучшить свою жизнь. Им должны быть предельно понятны риски, которые эта возможность может нести в себе. Именно поэтому ключевой рекомендацией сегодняшнего для разработчиков и провайдеров ИИ продуктов становится детальная проработка условий использования технологий, разработка корректных дисклеймеров, которые позволят защитить интересы как самих пользователей, так и создателей и владельцев продукта. Для достижения этой цели недостаточно компетенций технических и коммерческих специалистов, и привлечение юристов-профессионалов стратегически оправдано.

В завершение статьи хочется привести цитату швейцарского врача, алхимика и естествоиспытателя эпохи Возрождения Парацельса: «Всё — яд, всё — лекарство; то и другое определяет доза». Внедрение технологий ИИ в сферу здравоохранения и консультирования по вопросам здоровья неизбежно. Задача всех, кто вовлечен в этот процесс – стремиться соблюдать баланс, при котором эти технологии будут приносить максимальную пользу без ущерба для пользователей.

Автор: Елена Шершнёва