Доверие, непредвзятость и ответственность
"Для повышения доверия потенциальных пациентов необходимо решение задач этики искусственного интеллекта (ИИ). Несмотря на то что эта задача поднята уже более 50 лет назад, до ее решения пока еще далеко", - сообщила руководитель инфраструктурного центра "Хелснет" Мария Галлямова и назвала тему этики ИИ очень важной, поскольку, когда речь заходит о медицинских применениях, она напрямую касается жизни и здоровья пациентов. Поэтому неслучайно данная тема обсуждается на самом высоком государственном и межгосударственном уровне.
По мнению заместителя директора Центра компетенций НТИ "Технологии доверенного взаимодействия" Руслана Пермякова, важнейшей задачей медицинской этики является вопрос сохранения конфиденциальности данных. Тем более что медицинская информация, как предупреждает эксперт, может быть использована неправомерно, и уже есть прецеденты: "Примеры такого злоупотребления включают мошенничество со страховками, продажу личных данных пациентов третьим сторонам (работодателю) или использование информации для вымогательства". Положение, как предупредил Руслан Пермяков, осложняет то, что даже обезличенные медицинские данные очень легко деанонимизировать, "обогатив" их с помощью результатов других утечек, которые очень легко найти на специализированных ресурсах.
Также, как подчеркнул Руслан Пермяков, качество работы ИИ достигло такого уровня, что постановка диагноза возможна если не по фотографии, то по анализу видео. Причем речь может для их носителей идти о серьезных ограничениях, например на выполнение служебных обязанностей, или о стигматизированных недугах, например нервных, психических, дегенеративных заболеваниях или разного рода зависимостях (алкогольной, наркотической). И тут возникает дилемма, нужно ли уведомлять о наличии таких медицинских проблем третью сторону, например профильное лечебное учреждение или работодателя, в том случае если потенциальный пациент не обращался в медицинское учреждение. А призывы передавать такие диагнозы, как отметил Руслан Пермяков, раздаются весьма часто на разного рода мероприятиях и в прессе.
Доцент, руководитель Школы философии и культурологии НИУ ВШЭ Анастасия Углева ознакомила участников дискуссии с результатами исследований в области этики ИИ применительно к медицине. Вопрос об этике в медицинском ИИ давно назрел, но до сих пор не решена задача формализации соответствующих требований.
Ключевые риски, связанные с использованием ИИ в медицине, как напомнила Анастасия Углева, сформулировал шведско-британский исследователь, основатель и директор Института будущего человечества Ник Бустрем еще в 2006 г. Это алгоритмическая предвзятость (AI bias), создаваемый алгоритмами ИИ риск для уязвимых групп населения (дискриминация), отсутствие подотчетности и прозрачности, технологическая безработица и наконец возможность экзистенциальных угроз со стороны "суперинтеллекта".
Эти риски, в свою очередь, порождают проблемы доверия к ИИ, а также вопросы разделения ответственности между врачом и ИИ в случае врачебных ошибок. По мнению Анастасии Углевой, для построения этичного ИИ нужно решить проблему объяснимости и прозрачности работы алгоритмов и достичь "договорного доверия" между пользователями ИИ.
Представитель по разработке и внедрению приборов для клинической лабораторной диагностики Ассоциации российских производителей средств клинической лабораторной диагностики Александр Шибанов назвал принцип черного ящика в ИИ медицинского назначения абсолютно неприемлемым. Принятие решений должно оставаться за врачом и пациентом. При этом и врач, и пациент должны получить развернутые объяснения предлагаемых ИИ рекомендаций. Важнейшей проблемой, на которую обратил внимание Александр Шибанов, является корректность данных и моделей.
"Мы зафиксировали, что 40% рассмотренных программных продуктов достигли зрелости. При этом оценка динамики развития алгоритмов показала, что 33% из них находятся в зоне высокого диагностического и технического потенциала, а 62% - в зоне диагностической стагнации. Это говорит о том, что искусственный интеллект сегодня - хороший помощник врача, но не его замена", - такой вывод сделал главный внештатный специалист по лучевой и инструментальной диагностике Департамента здравоохранения города Москвы, директор Центра диагностики и телемедицины Юрий Васильев в интервью для ComNews.
https://www.comnews.ru/digital-economy/content/226566/2023-06-05/2023-w…
Академический директор акселерационной программы SechenovTech и руководитель партнерских программ ПМГМУ им. И.М. Сеченова Алла Панченко обратила внимание, что при разрешении вопроса об ответственности при использовании ИИ участвуют не только врач и пациент, но еще и разработчики, владельцы мощностей и платформ, на которых работает ИИ, а также владельцы датасетов, на которых проходило обучение. При этом вопрос корректности и полноты данных остается открытым. В итоге медицинское и экспертное сообщества испытывают серьезные опасения, что массовое внедрение ИИ может привести к увеличению количества врачебных ошибок. Также, по ее мнению, не стоит забывать и о том, что пациент информирован хуже всех участников цепочки принятия врачебных решений. И сообщество судмедэкспертов, по словам Аллы Панченко, уже готовится к валу обращений со стороны пациентов, связанных с ростом количества врачебных ошибок из-за некорректной работы медицинского ИИ.
Президент Ассоциации развития медицинских информационных технологий (АРМИТ), к.т.н., директор Центра медицинских информационных технологий "МЕДИАЛ-МТ" Михаил Эльянов согласился, что проблема этики ИИ в медицине поднимается очень давно. Однако ввиду того, что долгое время информатизация отрасли сводилась лишь к автоматизации учета, эти проблемы были оторваны от реальной практики. Да и в настоящее время уровень проникновения ИТ в медицине остается низким.
https://www.comnews.ru/content/223581/2022-12-19/2022-w51/it-medicinu-v…
Также, подчеркнул Михаил Эльянов, и уровень информированности о том, что такое ИИ и как он работает, очень низок: "Подавляющее большинство врачей - и не только врачей - не понимает, что такое ИИ, но, как правило, не готовы в этом признаться".
В таких условиях велик риск, что внедрение таких систем превратится в способ отмывания денег, и при этом практический результат достигнут не будет. "Через несколько лет, начнут задаваться вопросы: "Ну и где же ваши обещанные результаты от использования ИИ?" Подобное уже наблюдалось в начале 2000-х с телемедициной и привело к ее "закрытию" лет на 10", - опасается Михаил Эльянов.
По мнению руководителя направления цифровой медицины в сети лабораторий "Инвитро", главы ассоциации "Национальная база медицинских знаний" Бориса Зингермана, такие заморозки ИИ в отрасли приведут к тому, что пациенты начнут использовать средства генеративного ИИ, например ChatGPT, для самолечения. Последствия такого явления, особенно если оно станет массовым, будут непредсказуемыми и намного более сильными, чем применение пациентами поиска в интернете, который уже создает массу проблем медикам. По оценке Марии Галлямовой, уже сейчас много проблем связано с тем, что интересом к ИИ довольно умело пользуются всяческого рода шарлатаны и мошенники.
Плюс ко всему, применение аналитических систем создает проблемы не только для пациента, но и для врача. По мнению Михаила Эльянова, велик риск, что у медиков возникнет "чувство ущемленной профессиональной гордости". Плюс ко всему, по наблюдениям эксперта, во врачебном сообществе велики опасения, что использование ИИ приведет к росту нагрузки на медперсонал и/или падению его доходов.
По оценке Михаила Эльянова, этика ИИ сводится к следующим принципам: "Не врать! Не придумывать искусственные сложности. Не пытаться представить пациента идиотом, не понимающим элементарных вещей - в первую очередь недоработок медиков. Уметь все объяснить пациенту". Что касается корректности данных, то эксперт призвал не гнаться за их количеством, а делать упор на качество.