КЛЮЧЕВЫЕ НАПРАВЛЕНИЯ И ПЕРСПЕКТИВЫ ПРАВОВОГО РЕГУЛИРОВАНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В ТЕЛЕМЕДИЦИНЕ
Аннотация и ключевые слова
Аннотация (русский):
В статье проанализированы основные подходы к правовому регулированию наиболее актуальных проблем искусственного интеллекта в телемедицины, выявлены наилучшие решения, выработаны предложения. Сделан вывод о том, что разумным вектором развития представляется сближение исследованных подходов в регулировании ИИ: в российском законодательстве – повышение ответственности и роли производителя медицинского изделия в обеспечении безопасности устройств, в зарубежном законодательстве – создание правил автоматической передачи данных в уполномоченный орган, контролирующий отклонения в поведении искусственного интеллекта. Установлено, что правовые решения в области персональных данных в сфере искусственного интеллекта в телемедицины преимущественно удачны и единообразны: требование получения предварительного информированного согласия на обработку персональных данных, возможность его контроля и отзыва, принципы и правила обработки персональных данных, возможность обучения искусственного интеллекта лишь на обезличенных массивах данных. При этом верным представляется закрепление вместе с принципом прозрачности права на объяснение – которые совокупно предоставляют пациенту право получить доступную, понятную информацию как о своих персональных данных, так и о решениях искусственного интеллекта, вне зависимости от сложности и неочевидности решения во всей его полноте. Исследование выполнено за счет средств гранта Российского научного фонда № 23-78-10175, https://rscf.ru/project/23-78-10175/.

Ключевые слова:
медицина, телемедицина, информатизация, цифровизация, искусственный интеллект, правовое регулирование, телемедицинские технологии
Текст

В научной литературе обычно выделяют следующие имманентные проблемы использовании искусственного интеллекта в телемедицине: (1) проблема качества исходных данных; (2) проблема потери способности к обобщению; (3) проблема длительности использования непрерывного обучения; (4) проблема уникальности данных; (5) проблема ответственности; (6) проблема персональных данных [2, 4, 6].

Заметим, что законодательство Европейского Союза относит медицинские устройства с использованием искусственного интеллекта к устройствам высокого риска, т.е. предполагающим особый правовой режим и повышенные требования к безопасности. Это означает особые требования к проектированию, тестированию, транспарентности, документации и оценке воздействия.

Аналогично российское законодательство относит программное обеспечение с использованием искусственного интеллекта к классу медицинских изделий с высокой степенью риска. Это обусловливает ряд дополнительных требований к таким медицинским изделиям, которые в последнее время весьма ужесточились. Ранее действующие акты закрепляли два основных требования: во-первых, наличие или отсутствие в программном обеспечении ИИ обязательно указывается в технической документации (Приказ Минздрава России от 19.01.2017 № 11 н); во-вторых, необходимость представления сведений о клинической эффективности и безопасности таких медицинских изделий (Постановление Правительства РФ от 24.11.2020 № 1906).

Однако новые правовые акты дополняют указанные требования. В частности, если регистрация медицинского изделия не требует проведения клинических испытаний, и при этом в нем применяются технологии искусственного интеллекта, в нем должна присутствовать встроенная функция по передаче в уполномоченный орган (Федеральную службу по надзору в сфере здравоохранения) следующих сведений: (1) об обрабатываемых данных, (2) о результатах действия программного обеспечения, (3) сведений, предусмотренных отдельным порядком сообщения субъектами обращения медицинских изделий обо всех случаях выявления побочных действий (утверждается Министерством здравоохранения Российской Федерации). Указанные предписания установлены Постановлением Правительства РФ от 30.11.2024 N 1684 «Об утверждении Правил государственной регистрации медицинских изделий». Сообразному этому, Приказ Минздрава России от 11.04.2025 № 181н предписывает предоставлять сведения о наличии или отсутствии такой функции у медицинского изделия с использованием искусственного интеллекта в составе регистрационного досье на программное обеспечение.

В частности, устройство должно сообщать обо всех побочных действиях, которые не указаны в его инструкции по эксплуатации, нежелательных реакциях при применении, особенностях взаимодействия медицинских изделий, а также любых фактах и обстоятельствах, которые создают угрозу жизни и здоровью людей.

Полагаем такой подход правильным и научно обоснованным: он позволяет если не предупредить, то как минимум сократить риски применения искусственного интеллекта, перечисленные выше. Поскольку производитель выпускает устройство в эксплуатацию в определенной «точке развития» искусственного интеллекта, он способен предусмотреть те побочные действия и угрозы, которые детерминированы таким состоянием ИИ и наиболее вероятными, прогнозируемыми возможностями его обучения. При этом вышеозначенные риски использования ИИ следуют как раз из его способности к самообучению, что обусловливает необходимость немедленной реакции на новые, неспрогнозированные опасности его использования.

Также разумно, что передаваться данные должны сразу уполномоченному органу, поскольку даже добросовестный производитель склонен к тому, чтобы при получении данных изучить их, не предавая огласке, оценить возможные последствия, выработать стратегию поведения, прежде чем официально их обнародовать или сообщить в государственные органы. В то же время для уполномоченного органа приоритетом является безопасность граждан, что предполагает незамедлительную реакцию на отклонения в поведении и развитии ИИ.

Другие важные нововведения содержит Приказ Минздрава России от 11.04.2025 N 193н, который обновляет правила оказания медицинской помощи с применением телемедицинских технологий. В нем прямо указано (п. 17), что при предоставлении консультаций с помощью телемедицинских технологий могут использоваться системы поддержки принятия врачебных решений – медицинские изделия, которые представляют собой программное обеспечение с использованием искусственного интеллекта (только зарегистрированные в специальном порядке). В п. 24 обозначено, что при предоставлении консультации с использованием медицинских технологий данные о состоянии здоровья пациента могут быть получены в т.ч. с помощью систем поддержки принятия врачебных решений, в п. 45, 46 – что такие системы могут использоваться при дистанционном наблюдении за пациентом, с их помощью могут обрабатываться данные о его здоровье.

Таким образом, в российском законодательстве создается комплексная правовая регламентации использования искусственного интеллекта при оказании медицинской помощи с применением телемедицинских технологий: обязательная государственная регистрация программ с использованием ИИ в качестве медицинских изделий, необходимость наличия в программном обеспечении функции по передаче отдельных категорий данных в уполномоченный орган, определение сферы использования искусственного интеллекта при оказании медицинской помощи с применением телемедицины.

При этом новую актуальность в этой связи может получить вопрос о распределении ответственности между разработчиком искусственного интеллекта и медицинской организацией – если ранее аргументом в пользу безусловной и исключительной ответственности медицинской организации служило то, что ни один регламент оказания медицинской помощи не предусматривал возможности применения искусственного интеллекта, то теперь такой аргумент попросту устарел [5]. Полагаем, однако, что ответ на указанной вопрос в этой связи принципиально не изменился. Действующее регулирование определяет устройства с использованием ИИ как систему поддержки принятия решения врачом, оставляя окончательное решение всегда за ним. В этой связи ответственность перед пациентом должна нести медицинская организация, которая не лишена возможности в последующем споре с разработчиком возможности установить степень вины последнего [3].

Еще одним вопросом, который неизбежно возникает при объединении искусственного интеллекта и телемедицины – защита персональных данных пациентов [1]. В части искусственного интеллекта это касается, в первую очередь, обучения искусственного интеллекта, для которого требуются большие массивы данных о состоянии здоровья многих реальных людей. Однако правовое решение здесь является не слишком сложным: медицинские учреждения вправе передавать такие базы данных в обезличенном виде, не позволяющем привязать конкретную информацию к определенному лицу, поскольку в этом случае сведения утратят характер персональных данных. В большей степени эта проблема актуальна с технической точки зрения – необходимо четкое и последовательное протоколирование процессов хранения персональных данных, их обезличивания и передачи. В том числе этой целью в российское законодательство внесены изменения в положения о федеральной интегрированной электронной медицинской карте, которые позволяют обеспечить работу с такими обезличенными массивами данных.

Вторая часть связана с безопасностью телекоммуникационных каналов, используемых в телемедицине. Опять же, с правовой точки зрения примерно единые стандарты выработаны в России, Европейском Союзе и США. Они заключают в себе требования к обработке персональных данных: предварительному получению согласию пациента, возможности его контроля за указанными персональными данными и отзыва согласия, установлению правил хранения, передачи персональных данных. Проблема здесь снова более техническая, чем правовая. Однако одно из требований законодательства Европейского Союза применительно к ИИ в телемедицине мы считаем важным отметить дополнительно – это право на объяснение и принцип прозрачности. Они означают, что сторона, контролирующая применение ИИ, обязана максимально простым способом донести до пациента, как будут использоваться его персональные данные, каковы последствия их обработки, а также какие решения и почему принимает ИИ, причем сложность указанных решений не может быть основанием для отказа в ответе или чрезмерного усложнения ответа. Полагаем указанные императивы верными и подлежащими закреплению в законодательстве иных государств.

Таким образом, государства, регулирующие использование искусственного интеллекта в телемедицине, по-разному походят к вопросу минимизации таких рисков. В законодательстве Европейского Союза акцент сделан на ответственности производителя, его обязанности осуществлять постпродажный мониторинг устройств. Нововведения российского законодательства касаются преимущественно контроля государства в лице уполномоченных органов за всеми отклонениями в работе медицинских изделий, использующих искусственный интеллект.

Общим при этом является подход, согласно которому устройства, использующие искусственный интеллект, в том числе – в телемедицине, относятся к категории устройств с высоким риском, в связи с чем на них распространяются особые правовые режимы, предусматривающие требования к регистрации и контролю устройств.

Разумным вектором развития в этой части представляется сближение указанных подходов: в российском законодательстве – повышение ответственности и роли производителя медицинского изделия в обеспечении безопасности устройств, в зарубежном законодательстве – создание правил автоматической передачи данных в уполномоченный орган, контролирующий отклонения в поведении искусственного интеллекта.

Правовые решения в области персональных данных в сфере искусственного интеллекта в телемедицины преимущественно удачны и единообразны: требование получения предварительного информированного согласия на обработку персональных данных, возможность его контроля и отзыва, принципы и правила обработки персональных данных, возможность обучения искусственного интеллекта лишь на обезличенных массивах данных. Необходимые в этой части решения имеют в основном технический характер. При этом верным представляется закрепление вместе с принципом прозрачности права на объяснение – которые совокупно предоставляют пациенту право получить доступную, понятную информацию как о своих персональных данных, так и о решениях искусственного интеллекта, вне зависимости от сложности и неочевидности решения во всей его полноте.

Список литературы

1. Chouhan S.S. (2025). «The Role of AI in Telemedicine: Legal and Regulatory Perspective». International Journal of Law Management & Humanities. Vol. 8, № 3, p. 1296-1305.

2. Gallese Nobile C. (2023). «Legal Aspects of the Use Artificial Intelligence in Telemedicine». Journal of Digital Technologies and Law. № 1(2), p. 314–336.

3. Neri E., Coppola F., Miele V., Bibbolino C., Grassi R. (2020). «Artificial intelligence: Who is responsible for the diagnosis?». Radiol Med. № 125(6), p. 57-521.

4. Prainsack B., Forgo N. (2024). «New AI regulation in the EU seeks to reduce risk without assessing public benefit». Nature Medicine. № 30, p. 1235-1237.

5. Варюшин М.С. Правовой режим технологий искусственного интеллекта, применяемых в телемедицине // Российский журнал телемедицины и электронного здравоохранения. – 2021. – Т. 7, № 2. – С. 18-22.

6. Никитенко С.В. Международно-правовое регулирование использования искусственного интеллекта в области медицины / С.В. Никитенко // Вестник Волжского университета им. В.Н. Татищева. – 2023. – Т. 1, № 3(105). – С. 215-229.


Войти или Создать
* Забыли пароль?