Scientific journal
International Journal of Applied and fundamental research
ISSN 1996-3955
ИФ РИНЦ = 0,556

PROTECTION OF PATIENTS’ PERSONAL DATA WHEN USING ARTIFICIAL INTELLIGENCE TECHNOLOGIES: CURRENT STATE OF THE PROBLEM IN RUSSIA AND ABROAD, WEAKNESSES AND MODERN TRENDS

Petrushina М.V. 1 no name 2
1 Joint-Stock Company (JSC) A771
2 Russian Medical University of the Ministry of Health of the Russian Federation
Modern artificial intelligence technologies are transforming medicine, providing high diagnostic accuracy and personalized treatment. However, their implementation involves processing patients’ sensitive personal data, which requires strengthening privacy protection measures. The aim of the research is to assess the current state of legal regulations and technical solutions for data protection when applying artificial intelligence in medicine in Russia and abroad, identifying weak spots and promising trends. Materials and methods included analyzing legal frameworks, scientific publications, cases of artificial intelligence systems implementation, expert interviews with healthcare and information technology industry representatives, as well as evaluating technologies such as federated learning and blockchain. Results showed that Russia lacks specialized regulations for artificial intelligence, with 40% of clinics failing to meet cybersecurity requirements. Countries with comprehensive strategies (European Union, China, USA) are leading globally, combining stringent standards with innovative approaches. Main issues include insufficient digital literacy of medical staff, data re-identification risks, and ethical dilemmas related to algorithmic discrimination. Conclusions highlight the need for specialized legislation, investments in cybersecurity, implementation of “regulatory sandboxes,” and participation in international data exchange standards. Without a systemic approach, Russia risks losing patients’ trust and lagging in the development of medical artificial intelligence systems.
healthcare
patient
personal data protection
artificial intelligence
treatment
security
information
blockchain
regulatory sandboxes
federated learning
international cooperation

Введение

Современные технологии искусственного интеллекта (ИИ) трансформируют медицину, обеспечивая высокую точность диагностики, автоматизацию процессов и персонализацию лечения. Однако широкое внедрение ИИ в здравоохранение связано с обработкой огромных объемов персональных данных пациентов, включая чувствительную медицинскую информацию. Это поднимает острые вопросы защиты конфиденциальности, особенно в условиях цифровизации и межведомственного взаимодействия. Проблема становится глобальной: страны сталкиваются с вызовами в регулировании, технической реализации и этическом аспекте [1; 2].

Мировой рынок сбора и маркировки данных в здравоохранении в 2025 году ожидаемо достигнет 1,37 млрд долларов, при этом до 2037 года он может вырасти на 20,83 млрд долларов при среднегодовом темпе роста 25,8%[1]. Кроме того, по прогнозам, общий рынок информационных технологий (IT) в медицине достигнет 662 млрд долларов к 2026 г.[2] ИИ-системы уже сейчас обрабатывают до 40% этих данных, обеспечивая анализ изображений, прогнозирование заболеваний и оптимизацию лечения [3]. Однако, как отмечают эксперты, только 30% стран мирового сообщества имеют специализированные нормативные рамки для защиты данных в ИИ-медицине[3]. В России, как и за рубежом, усилия направлены на баланс между инновациями и правами пациентов. Анализ текущего состояния, выявление «слабых зон» и прогнозирование трендов позволит сформировать стратегию безопасного развития ИИ-медицины.

По итогам исследования сети клиник «Будь Здоров» и страховой компании «Ингосстрах» были получены такие результаты: 51% граждан допускают использование ИИ для диагностики заболеваний и назначения лечения, 48% из них готовы частично довериться технологиям и лишь 3% – полностью. Одна из причин – опасения о нарушении конфиденциальности пациентов. Аналогичные данные приводит Всероссийский центр изучения общественного мнения (ВЦИОМ): 68% россиян считают, что их права на конфиденциальность в цифровом здравоохранении недостаточно защищены[4]. Эти проблемы требуют системного подхода, объединяющего правовое регулирование, технические меры и этические принципы.

Тем не менее цифровизация здравоохранения в России движется семимильными шагами, и применение технологий ИИ в диагностике и лечении является одним из самых приоритетных направлений в развитии российской медицины.

Внедрение ИИ в российской медицинской практике могут проиллюстрировать следующие примеры:

- Сбербанк разработал платформу Sber Health, которая использует ИИ для анализа жалоб пациентов и предварительной диагностики. В 2023 г. платформа обрабатывала более 100 000 обращений в месяц, но столкнулась с критикой из-за недостаточной прозрачности в вопросах обработки персональных данных;

- Яндекс совместно с Институтом нейрохирургии имени Бурденко внедрил ИИ для анализа МРТ головного мозга. Проект повысил точность диагностики опухолей на 15%, однако также требует строгого контроля конфиденциальности данных [4].

Исследование, опубликованное в электронном журнале «Медвестник», показало, что несмотря на то, что половина россиян считает, что искусственный интеллект может использоваться в диагностике и лечении, только каждый шестой готов доверить нейросети собственное здоровье, в том числе – из-за опасений нарушения конфиденциальности их данных [5].

По данным газеты «Ведомости», на июнь 2025 года около 83% организаций сферы здравоохранения недостаточно защищены от киберугроз, так как в их информационной инфраструктуре есть неустранённые критические уязвимости[6].

Цель исследования – оценить состояние регулирования и практики защиты персональных данных пациентов при использовании ИИ в медицине в России и за рубежом, выявить ключевые проблемы и перспективные направления развития.

Задачи

1. Изучить правовые и технические рамки защиты данных в сфере ИИ-медицины, включая российские законы (ФЗ-152, ФЗ-323) и международные стандарты (GDPR, HIPAA).

2. Провести сравнительный анализ подходов в России, ЕС, США и странах Азии, выявив различия в регулировании и технологических решениях.

3. Определить слабые места в текущих системах: риски утечек, дефицит регулирования, этические дилеммы.

4. Выявить технологические и управленческие тренды для повышения безопасности данных.

Материалы и методы исследования

Исследование основано на анализе нормативно-правовой базы, научных публикаций и отчетов международных организаций (ВОЗ, OECD). Для сравнительного анализа использовались данные по России, странам ЕС, США, Китаю и Японии. Методы включали:

- анализ более 60 российских и зарубежных источников информации в ведущих электронных и печатных изданиях;

- качественный анализ правовых актов (ФЗ-152, GDPR, HIPAA, NMPA);

- обзор кейсов внедрения ИИ в медицину (диагностика, телемедицина, анализ больших данных);

- экспертные интервью с представителями Минздрава, IT-компаний и юристов;

- анализ использования ИИ для диагностики рака, телемедицинских консультаций и анализа больших данных (Big Data) на примере систем IBM Watson Health (США), проекта DeepMind (Великобритания), платформы Ping An Good Doctor (Китай);

- оценку технологических решений: анализ эффективности обезличивания данных, шифрования, Federated learning и блокчейна на примере проекта MedRec (блокчейн в США), федеральных систем обмена данными в ЕС.

Результаты исследования и их обсуждение

1. Правовое регулирование.

Россия

Защита данных в здравоохранении регулируется ФЗ-152 и ФЗ-323, которые требуют согласия пациентов на обработку данных, обезличивания при использовании ИИ и минимальных мер безопасности согласно Постановлению Правительства РФ № 1119[7]. При анализе открытых источников информации авторы столкнулись с тем, что в здравоохранении всё ещё существует недопонимание и ряд разночтений в текущем законодательстве. Медицинским работникам не совсем понятно, что именно следует считать персональными данными пациента, а что – врачебной тайной, и какие уровни защиты предусмотрены для каждого из определений [5].

Важным шагом на пути регулирования защиты персональных данных пациента стало издание Приказа Минздрава № 965н «Об утверждении порядка организации и оказания медицинской помощи с применением телемедицинских технологий», который устанавливает правила оказания телемедицинских услуг. В частности, документ обязывает медицинские учреждения:

• обеспечить шифрование данных при передаче через Интернет;

• использовать системы контроля доступа (например, двухфакторную аутентификацию);

• обезличивать данные при их передаче в ИИ-системы для анализа[8].

Эти положения напрямую связаны с защитой конфиденциальности пациентов, особенно при внедрении ИИ в телемедицинские консультации. Однако эксперты отмечают, что реализация требований затруднена из-за отсутствия единой методики для ИИ-систем [6].

Кроме того, критика связана с отсутствием специализированных норм для ИИ. В 2023–2024 годах Минцифры РФ продвигало инициативы по регулированию ИИ: стратегия развития искусственного интеллекта в РФ до 2030 года (утверждена в 2023 г.) включает положения о защите данных в ИИ-системах, включая обязательную сертификацию «высокорисковых» алгоритмов[9].

Законопроект «О регулировании искусственного интеллекта», который находится на рассмотрении в Госдуме, предполагает создание реестра ИИ-систем, обязывающего разработчиков соблюдать требования конфиденциальности и прозрачности.

В рамках Национального проекта «Кибербезопасность» запущен пилотный проект по внедрению стандартов ИИ-безопасности в здравоохранении, включающий шифрование данных и контроль доступа[10].

ЕС

GDPR устанавливает строгие правила на основе принципа «прозрачности» и требует оценки рисков при ИИ-обработке. В 2023 г. Еврокомиссия одобрила закон об искусственном интеллекте, классифицирующий медицинские ИИ-системы как «высокорисковые», что усиливает требования к защите данных[11].

США

HIPAA ограничивает раскрытие данных, собранных медицинскими учреждениями, но ограничение не распространяется на данные с носимых устройств (например, фитнес-трекеров). Однако если данные передаются в клиники или страховые компании, подчиняющиеся HIPAA, они автоматически попадают под регулирование. Пример: Apple Health сотрудничает с клиниками США, где данные пациентов обрабатываются в соответствии с HIPAA[12] [7].

Китай

Закон об интернет-безопасности, принятый в Китае в 2021 г., усиливает контроль государства над медицинскими данными. Согласно закону, ИИ-системы обязаны проходить сертификацию перед внедрением, а данные пациентов хранятся в защищенных государственных облаках[13].

Таким образом, в России в текущее время наблюдается дефицит специализированных норм для ИИ, но проблематику уже невозможно игнорировать, и новые инициативы Минцифры начали закладывать основы регулирования конфиденциальности персональных данных, тогда как в ЕС и Китае уже действуют четкие стратегии, закреплённые законодательно.

2. Технические меры.

Обезличивание данных – в России применяется недостаточно эффективно из-за риска обратной идентификации. Например, в 2022 г. в одном из регионов произошла утечка обезличенных данных, позволившая восстановить личности пациентов[14]. В ЕС и США активно используются алгоритмы дифференциальной приватности, которые добавляют «шум» к данным, предотвращая их идентификацию.

С 2005 по 2019 год общее количество утечек данных в здравоохранении составило 249,9 миллиона. По словам нескольких специалистов, общее число людей, пострадавших от утечек данных в здравоохранении, составило 249,09 миллиона за этот же период. Только за предыдущие пять лет пострадали 157,40 миллиона человек [8].

Безопасность ИИ-систем – российские медучреждения часто игнорируют требования шифрования и контроля доступа (Постановление № 1119). По данным Роскомнадзора, 40% клиник не имеют систем обнаружения угроз, тогда как, например, в Японии внедрены стандарты JIS Q 15001, которые требуют ежегодного аудита безопасности данных. В России существуют разногласия между разработчиками программного обеспечения и пользователями цифровых систем, где сложно определить сторону, отвечающую за утечку персональных данных [9].

Federated learning

Перспективным методом, позволяющим обучать модели ИИ без передачи данных в облако, является Federated learning. Например, NVIDIA Clara Federated Learning активно используется в США и ЕС для обучения ИИ-моделей на данных из разных клиник без их централизованного хранения. Проект Federated Tumor Segmentation (FeTS) использует эту платформу для анализа МРТ-снимков пациентов с опухолями мозга.

Слабые места:

- недостаточная цифровая грамотность медперсонала. По данным из открытых источников, только 20% врачей в России прошли обучение по защите данных, а 68% не знакомы с основами кибербезопасности [10];

- из отчёта «Киберугрозы в здравоохранении: Россия в 2023 году» компании «Лаборатория Касперского» – 65% российских клиник используют устаревшие антивирусы без функции машинного обучения, а ИИ-мониторинг угроз внедрен только в 12% медицинских учреждений;

- согласно сравнительному анализу GDPR и российского законодательства, в России нет аналога европейских Data Protection Authorities (DPAs), что приводит к недостаточному контролю за соблюдением ФЗ-152 в здравоохранении [11].

3. Этические и социальные аспекты.

Согласие пациентов. В России, согласно исследованию НИУ ВШЭ, выполненному в 2023 году, 70% пациентов не осведомлены о том, как ИИ-системы обрабатывают их данные, а 63% не понимают, какие риски связаны с использованием искусственного интеллекта. Это указывает на дефицит информированного согласия, несмотря на требования ФЗ-323[15].

В отличие от российских реалий, в ЕС пациентам предоставляют детальные объяснения о целях обработки их персональных данных. Например, в Германии обязательна письменная форма согласия с описанием рисков. По данным опроса пациентов в многопрофильной больнице Великобритании, уровень знаний респондентов об ИИ был низким, при этом большинство из них были готовы делиться данными с Национальной службой здравоохранения (77,9%), но менее готовы передавать свои данные коммерческим организациям и технологическим компаниям. Основная причина – опасения относительно приватности и конфиденциальности информации [12].

Дискриминация ИИ. В США зафиксированы случаи смещения алгоритмов в сторону определенных расовых групп. Например, исследование Obermeyer с соавторами, опубликованное в журнале Science, показало, что алгоритм диагностики диабета компании Optum давал заниженные оценки риска осложнений у пациентов африканского происхождения из-за использования исторических данных о расходах на лечение, а не основываясь на реальных потребностях [13]. Аналогичные результаты получены в исследовании Stanford Medicine, где нейросети, обученные на несбалансированных данных, демонстрировали снижение точности диагностики на 15–20% для пациентов с темным цветом кожи [14].

В России таких исследований пока нет, но эксперты предупреждают о похожих рисках, если данные для обучения ИИ будут нерепрезентативными.

4. Тренды развития

Метод Federated learning, позволяющий обучать ИИ-модели без передачи данных в облако, активно развивается за рубежом (примеры: NVIDIA Clara Federated Learning в США, проекты Google Health). В России пока нет массовых пилотных проектов FL в здравоохранении, однако в 2022 году стартовал проект по дистанционному мониторингу состояния здоровья пациентов с использованием диагностических приборов – данные с них поступают на цифровую платформу для дальнейшей обработки врачами-специалистами из медицинских центров. В рамках проекта пациентам с диабетом или гипертонией выдаются диагностические приборы, данные с которых поступают на платформу, а затем обрабатываются врачами[16].

Минцифры РФ подчеркивает, что развитие FL станет одним из приоритетов для обеспечения конфиденциальности данных в ИИ-медицине в ближайшем будущем.

Блокчейн

Блокчейн – это децентрализованная распределенная база данных, которая обеспечивает:

- неизменность записей: данные нельзя изменить или удалить без согласия всех участников сети;

- прозрачность: все операции с данными отслеживаются и хранятся в виде цепочки блоков;

- контроль доступа: пациенты могут управлять правами на свои данные через смарт-контракты.

В здравоохранении блокчейн применяется для:

- хранения медицинских записей (электронные истории болезни);

- управления доступом к данным (например, обмен между клиниками и пациентами);

- децентрализованного хранения данных.

Примером может послужить проект MedRec в США, который позволяет пациентам контролировать доступ к своим данным через блокчейн. В Эстонии – проект Guardtime, специализирующийся на обеспечении безопасности данных – применяется для защиты данных систем электронного здравоохранения страны. В проекте Hashed Health (США) блокчейн применяется для обмена данными между страховыми компаниями, клиниками и пациентами.

В России блокчейн пока не получил массового распространения в здравоохранении, но есть пилотные проекты. Большинство проектов находится на начальной стадии и реализуется в основном в рамках частных инициатив. Информация о конкретных результатах, достигнутых в рамках анонсированных проектов, недоступна. Среди известных блокчейн-инициатив российских медицинских учреждений – применение блокчейна для хранения медицинских данных в ОАО «Медицина», а также использование технологии для контроля медицинских услуг сетью «Открытая клиника». В качестве региональных проектов следует выделить использование блокчейна для мониторинга оборота лекарств в больнице Новгородской области. Московская область еще в 2017 г. анонсировала планы по использованию блокчейна для хранения медицинских карт граждан [15].

На сегодняшний день и в России, и в других странах отсутствуют четкие нормы для использования блокчейна в здравоохранении, кроме того, интеграция блокчейна с существующими системами (например, ЕГИС) требует значительных инвестиций.

Регуляторные песочницы

«Регуляторная песочница» – это контролируемая среда, созданная государственным регулятором, где компании могут тестировать инновационные продукты, технологии или бизнес-модели под надзором с ограниченными рисками. В здравоохранении такие песочницы позволяют:

- тестировать ИИ-системы для диагностики, прогнозирования заболеваний и обработки персональных данных;

- соблюдать требования ФЗ-152 (защита персональных данных) и ФЗ-323 (конфиденциальность медицинской информации);

- минимизировать юридические барьеры для внедрения технологий без полной лицензии.

В 2024 году Минцифры РФ запустило пилотные «регуляторные песочницы» для тестирования ИИ-продуктов в здравоохранении – проект, который Минздрав совместно с Минэкономразвития и Минцифры подготовил для использования обезличенных медицинских данных без согласия пациентов. Планируется, что до конца 2025 года установят экспериментальный правовой режим (ЭПР) в сфере медицинских данных. Тестирование будет проходить в течение трёх лет на территории всей страны. Обезличенные данные в рамках ЭПР будут использоваться для научных исследований, опытно-конструкторских работ и разработок моделей машинного обучения, а также для исследования реальной клинической практики, например оценки и контроля качества применения лекарственных средств при оказании медицинской помощи. Сбор, обработка и анализ обезличенных данных будут осуществляться на специальной цифровой платформе, доступ к которой будет предоставлен ограниченному кругу лиц[17].

Международное сотрудничество

Global Health Data Exchange (GHDx) – это платформа, разработанная Институтом метрики и оценки в здравоохранении (IHME) при Вашингтонском университете (США). Основная цель GHDx – создание открытой базы данных для глобального обмена информацией о здоровье, включая эпидемиологические данные, результаты исследований и данные о применении ИИ в медицине.

Ключевые функции:

- стандартизация данных: GHDx внедряет международные стандарты, такие как FHIR (Fast Healthcare Interoperability Resources), которые позволяют унифицировать форматы хранения и обмена медицинскими данными;

- открытый доступ: платформа предоставляет бесплатный доступ к данным о заболеваниях, вакцинации, демографии и других показателях здоровья;

- поддержка ИИ-исследований: данные GHDx используются для обучения и тестирования ИИ-моделей, например, для прогнозирования эпидемий или анализа эффективности лечения.

Участники платформы: более 180 стран, включая Россию и Китай[18].

В 2021 году ВОЗ опубликовала рекомендации по этическому использованию ИИ в медицине, включая требования к защите данных и прозрачности алгоритмов[19].

В июле 2024 года сообщалось, что ведущие медицинские вузы России и Китая договорились развивать сотрудничество в сферах цифровой и персонализированной медицины. Некоторые аспекты, обсуждавшиеся на двусторонней тематической встрече:

- использование искусственного интеллекта, больших данных и других передовых технологий для улучшения качества медицинского обслуживания;

- разработка и внедрение персонализированных методов лечения и профилактики заболеваний[20].

Заключение

Современные ИИ-технологии открывают новые горизонты для медицины, но требуют усиленной защиты персональных данных. В России ключевые проблемы включают правовой разрыв в регулировании ИИ, техническую уязвимость систем и недостаточную информированность пациентов. За рубежом лидируют страны с комплексными стратегиями (США, ЕС, Китай), где сочетаются жесткие нормы и стимулирование инноваций.

На основании полученных и проанализированных данных можно выделить следующие направления развития кибербезопасности при использовании ИИ в медицинских учреждениях Российской Федерации:

- разработка юридических основ применения ИИ в здравоохранении, включая ответственность разрабатывающей стороны и пользователей за полученные результаты;

- увеличение объёмов финансирования обеспечения мероприятий кибербезопасности, внедрение закрытых каналов шифрования, Federated learning и проведение регулярных проверок;

- обучение медицинского персонала основам кибербезопасности и кибергигиены в лечебных учреждениях, информирование пациентов об их правах и рисках при использовании ИИ в здравоохранении;

- широкое применение практики «регуляторных песочниц» для создания и тестирования инновационных продуктов с использованием ИИ, учитывая необходимость контроля конфиденциальности;

- участие в международных платформах по обмену данными информации о здоровье пациентов, разработанных с учётом мировых стандартов защиты персональных данных (например, GHDx).

Без решительных мер Россия рискует отстать в гонке за лидерство в ИИ-медицине, потеряв доверие пациентов и инвестиции, которые в приоритетном порядке государство и частный бизнес выделяют на разработку новых продуктов, связанных с применением ИИ в здравоохранении.