1. О чем статья?
В этой серии заметок мы рассмотрим, кто и за что может нести ответственность в связи с дефектами в работе решений на базе ИИ в грядущих экспериментальных правовых режимах («ЭПР»).
Эта и последующие заметки составлены и составляются в продолжение ранее написанных заметок, в которых критически анализируются правки в ФЗ «О персональных данных» и ФЗ «О связи». Поэтому аббревиатуры будут везде одинаковые.
Начнём мы с разбора «Проекта внедрения систем поддержки принятия врачебных решений, использующих технологии искусственного интеллекта» (для целей статьи будем называть этот ЭПР «AIболит»). В рамках данного ЭПР предполагается предоставление врачам/мед. учреждениям ПО на базе ИИ «для содействия врачам при диагностировании заболеваний, мониторинге состояния пациентов и принятии решений о назначении и корректировке лечения»1.
2. Оговорки
- Мы будем ориентироваться на те данные об ЭПР и планируемые изъятия из законов, которые известные на момент написания статьи. В частности – ориентируемся на Законопроект и Пояснительную записку к нему;
- Насколько известно автору статьи, в настоящее время Программы Экспериментов ещё не опубликованы. Вероятно, согласованные Программы Экспериментов будут предусматривать иные изъятия, нежели те, которые можно сейчас предположить из текста Законопроекта. Также вероятно, что в будущем Участники Экспериментов будут пытаться урегулировать вопросы ответственности на договорном уровне. Мы же рассмотрим ситуацию с позиции «здесь и сейчас» исходя из тех сведений, которые пока нам доступны. Когда Программы Экспериментов будут доступны для публичного обсуждения автор, скорее всего, опубликует отдельную статью с дополнительными комментариями;
- Как мы понимаем, скорее всего в Пояснительной записке имеется в виду сервис предиктивной аналитики Webiomed. Настоящая статья не является юридическим заключением, составленным для владельцев данного сервиса. Более того, юридические лица и ИП могут присоединиться к «песочницам» со своими техническими решениями и правовой спецификой (ч. 3 ст. 11 Закона об ЭПР). Поэтому мы будем рассматривать все возможные сценарии, с которыми можно столкнуться на практике;
- Вопрос ответственности в контексте работы ИИ – далеко не новая тема для дискуссии. По крайне мере за последние три года было уже опубликовано множество работ по этой теме. Степень проработанности вопроса варьируется от всестороннего и глубокого анализа2 до просто общей констатации позиции автора3. Поэтому в этой статье не будет «изобретения велосипеда», скорее делается попытка перенести дискуссию об ответственности из уровня абстрактных теоретических обсуждений в практическую плоскость.
Итак, начнём.
3. AIболит – краткий разбор потенциальной ответственности сторон
Краткий вывод:
В рамках ЭПР возникают два уровня уровня ответственности:
- Ответственность Врача/мед. учреждения перед пациентом за некачественное оказание медицинской помощи – ответственность возникает по общим основаниям (несмотря на действие ЭПР);
- Ответственность Разработчика ПО перед Врачом/мед. учреждением за дефекты в работе диагностирующего ПО, использующего ИИ – наличие ответственности зависит от того, какой договор был заключён между сторонами (ЭПР здесь также не причём).
Законопроект никак не затрагивает вопросы, связанные с ответственностью
Действующая редакция Законопроекта предусматривает изъятия из Федерального Закона «Об основах охраны здоровья граждан в Российской Федерации» («Закон о Здравоохранении»), касающиеся:
- соблюдения врачебной тайны (ч. 1 ст. 13 Закона о Здравоохранении);
- особенностей медицинской помощи, оказываемой в рамках клинической апробации (ст. 36.1 Закона о Здравоохранении);
- необходимости принятия решения врачебной комиссии для назначения и применения «нестандартных» или не предусмотренных клинической рекомендацией лекарств, медицинских изделий или продуктов лечебного питания (ч. 15 ст. 37 Закона о Здравоохранении);
- требований к допуску и обращению медицинских изделий (ч. 3, 4, 8 ст. 28. Закона о Здравоохранении)4.
Законопроект оставляет без изменений действие следующих правил, касающихся диагностирования:
- диагноз устанавливается лечащим врачом или консилиумом врачей (ч. 3 ст. 48, ч. 7 ст. 70 Закона о Здравоохранении) даже если консультация пациента проводится с использованием телемедицинских технологий (ч. 3 ст. 36.2 Закона о Здравоохранении);
- диагноз устанавливается при условии всестороннего обследования пациента (ч. 7 ст. 70 Закона о Здравоохранении). Даже если при лечении пациента используются телемедицинские технологии какая-либо коррекция диагноза возможно только если врач очно осмотрел пациента (ч. 3 ст. 36.2 Закона о Здравоохранении);
- запрещается принятие решений в отношении Пациента, основанное только на основании автоматизированной обработки ПДн (ч. 1 ст. 16 Закона о ПДн) (поскольку в работе ИИ будут использованы биометрические ПДн пациентов).
Также Законопроект не предусматривает какие-либо изъятия из ГК РФ, касающиеся ответственности за причинение вреда и нарушение обязательств по договору.
1 уровень ответственности – Пациент v Врач/мед. учреждение
В связи с этим на 1м уровне ответственности, даже несмотря на действие ЭПР, пациент сможет потребовать от врача/мед. учреждения:
- компенсацию вреда, причинённого жизни и здоровью пациента вследствие недостатков медицинских услуг (ст. 1095 ГК РФ);
- компенсацию морального вреда (ст.ст. 1099 – 1101 ГК РФ); и
- возврата денег за неправильное лечение (п. 6 ст. 29 Закона РФ от 07.02.92 № 2300-1 «О защите прав потребителей»).
- если медицинские услуги оказаны частнопрактикующим врачом – такой врач будет отвечать лично (ст. 1095 ГК РФ);
- если медицинские услуги оказаны медицинским учреждением – будет отвечать мед учреждение (как а) лицо, которое оказывает услуги по договору и б) как работодатель, ответственный за вред, причинённый работниками) (ст. 1095, п. 1 ст. 1068 ГК РФ).
2 уровень ответственности – Врач/мед. учреждение v Разработчик ПО
В рамках данного уровня сложно дать какой-то однозначный комментарий, не имея на руках конкретного договора между Врачом/мед. учреждением и Разработчиком ПО.
Как показывает практика5, правоприобретатель может привлечь правообладателя к ответственности далеко не всегда. Шансы зависят от того, каковы формулировки договора и какое их толкование будет у суда. В частности:
- если между Разработчиком ПО и Врачом/мед. учреждением будет заключаться лицензионный договор – Разработчик ПО скорее всего никакой ответственности не понесёт
Предметом лицензионного договора выступает неисключительное право6, которое в принципе не может быть не качественным7. Поэтому несмотря на дефекты в работе ИИ Разработчик ПО ничего не нарушает.
- если между Разработчиком ПО и Врачом/мед. учреждением будет заключен «договор поставки ПО» или договор поставки оборудования с предустановленным ПО - у Врача/мед. учреждения возникают существенный шанс привлечь Разработчика ПО к ответственности за «поставку товаров ненадлежащего качества»
- уменьшения покупной цены;
- безвозмездно и в разумный срок устранить недостатки в работе ПО;
- возместить расходы, которые Врач/мед. учреждение само понесло на устранение недостатков;
а если дефекты в ПО оказываются существенными или неоднократными, то Врач/мед. учреждение сможет:
- отказаться от договора и потребовать возврата денег, выплаченных за ПО;
- потребовать замену ПО8.
Вопрос, действительно ли «дефектно» ПО на базе ИИ, будет выясняться судом в зависимости от конкретных обстоятельств дела.
- если Разработчик ПО разрабатывает ПО по заказу Врача/мед. учреждения – Врач/мед. учреждение сможет привлечь Разработчика ПО к ответственности в рамках подрядных отношений9.
- лицензионным договором - как рассмотрено выше, ответственность не возникает;
- договором оказания услуг - гипотетически ответственность может возникнуть, но в силу рекомендательного характера результатов, выдаваемых системой предиктивной аналитики, а также оставшейся на враче обязанности ставить диагноз, вероятность привлечения Разработчика ПО к ответственности за неправильную работу предиктивной аналитик достаточно мала. Врач/мед. учреждение может повлиять на Разработчика ПО с бОльшей вероятностью, если система будет работать настолько плохо, что Врач/мед. учреждение в принципе не смогут воспользовать ПО для тех целей, на которые они рассчитывали при приобретении доступа к сервису;
- смешанным договором.
Подробнее данный вопрос рассмотрен в части 2.
4. Заключение (в рамках первой части)
В рамках комментируемого ЭПР пока что не предусматриваются какие-либо изменения в действующие правила об ответственности сторон. В принципе это достаточно логично, так как:
- пока что речь идёт о т.н. «слабом» ИИ – ИИ, который создаётся в качестве инструментария для решения узких задач человеком;
- ИИ в рамках данного ЭПР направлен на диагностирование пациентов, то есть о «роботах», осуществляющих инвазивное вмешательство в организм пациентов, речи в данном ЭПР не идёт, так что риски использования такого ИИ (этические и материальные) сравнительно минимальные.
Однако по мере роста качества диагнозов зависимость врачей от подобного ИИ будет возрастать, и возможно, что в ближайшем будущем распределение ответственности может оказаться смещённым в сторону разработчика ПО, использующего подобный ИИ. Подобный подход, по мнению автора, в целом деструктивен: тотальное перекладывание диагностической функции (и ответственности) с врачей на программистов нивелирует профессионализм врачей с одной стороны, а с другой – возложит на разработчиков ПО бремя решать абсолютно все вопросы, связанные с лечением пациента – от сугубо профессиональных медицинских вопросов до вопросов этического характера. Даже если предположить, что в разработке ПО будут участвовать врачи, невозможность учёта мнения всех врачей (у которых накапливается разный профессиональный опыт работы с людьми разных возрастов, этносов, образов жизни и т.п.) неизбежно сделает механизм принятия решений «однобоким».
Продолжение следует…
_______
1 См. стр. 1 Пояснительной записки к Законопроекту. URL: https://regulation.gov.ru/projects#npa=106119
2 См., например, «Регулирование робототехники: введение в "робоправо". Правовые аспекты развития робототехники и технологий искусственного интеллекта» (под ред. А.В. Незнамова) «Инфотропик Медиа», 2018) и «Юридическая концепция роботизации: монография» (отв. ред. Ю.А. Тихомиров, С.Б. Нанба) («Проспект», 2019)
3 См, например, https://zakon.ru/blog/2020/09/25/za_postupki_robota_otvetyat_ego_vladelcypovedenie_iskusstvennogo_in...
4 См. ст. 3 Законопроекта
5 Очень хороший обзор судебной практики по вопросу ответственности за некачественное ПО сделал, например, А. Мокшанов: https://zakon.ru/blog/2016/11/9/nekachestvennoe_programmnoe_obespechenie_zaschita_interesov_pravopriobretatelya. В дальнейшем в данной работе мы будем ориентироваться на разбор практики, приведённой в цитируемой статье
6 Ст. 1235 ГК РФ
7 См. А. Мокшанов. Некачественное программное обеспечение: защита интересов правоприобретателя. URL: https://zakon.ru/blog/2016/11/9/nekachestvennoe_programmnoe_obespechenie_zaschita_interesov_pravopriobretatelya. См. также Савельев А.И. Некоторые правовые аспекты использования смарт-контрактов и блокчейн-технологий по российскому праву // Закон. 2017. N 5. С. 94 – 117 (СПС «Консультант Плюс»)
8 П. 1, 2 ст. 475, п. 1 ст. 518 ГК РФ
9 См. А. Мокшанов. Некачественное программное обеспечение: защита интересов правоприобретателя. URL: https://zakon.ru/blog/2016/11/9/n