ИИ всё активнее используют в медицине. Но что, если из-за его ошибки пациент умрёт? Кто несёт ответственность?
The Guardian изучила отчёт профильных специалистов, посвящённый правовому регулированию применения нейросетей в здравоохранении. И в нём высказано много опасений.
Суть:
в мировой клинической медицине искусственный интеллект даёт много преимуществ врачам: создаёт алгоритмы, интерпретирует результаты, помогает в постановке диагнозов, даже в управлении госпиталями — от оптимизации коечного фонда до управления цепочками поставок;
но, как отметил один из авторов отчёта, профессор Дерек Ангус из университета в Питсбурге, «определённо будут случаи, когда появится ощущение, что что-то пошло не так, и люди начнут искать виноватых»;
ещё одно но: пациентам будет крайне сложно доказать, что во врачебной ошибке виноват ИИ, добавил соавтор доклада из Гарварда Гленн Коэн.
Как в России?
RT спросил юриста, главу Центра правопорядка в Москве и Московской области Александра Хаминского:
«Российское законодательство не предусматривает возможности лечения с помощью ИИ. Единственным субъектом правоотношений по оказанию медпомощи является исключительно лечащий врач, на которого возложены функции по организации и непосредственному оказанию пациенту помощи в период наблюдения за ним и его лечения».
Эксперт добавил, что врач может обращаться к различным справочникам, базам данных и справкам от ИИ, но решение об использовании информации принимает именно медик:
«Естественно, использование ИИ во врачебной деятельности может привести к причинению вреда пациенту и даже его смерти. В то же время с учётом того, что ИИ не является субъектом правоотношений по оказанию врачебной помощи, ответственность за ошибку будет нести лечащий врач».