Виртуальный доктор. Можно ли доверять советам медицинских чат-ботов
Ученые сравнили ответы реальных врачей и медицинских чат-ботов на запросы пациентов. Оказалось, что советы искусственного интеллекта (ИИ) часто кажутся людям более понятными, информативными и корректными. Почему к рекомендациям "виртуального доктора" все же следует относиться с осторожностью — в материале РИА Новости.
Медицина в эпоху ИИ
Практические приложения на основе генеративного ИИ развиваются стремительно, в том числе в медицине. Сегодня искусственный интеллект помогает врачам расшифровывать результаты рентгенографических, МРТ, КТ и других исследований, анализирует истории болезни пациентов, создает шаблоны рецептов и рекомендаций.
Пандемия COVID-19 ускорила внедрение цифрового здравоохранения и телемедицины. С одной стороны, это упростило доступ к медицинской помощи, с другой — привело к снижению ее качества и нарушению регламентов. ИИ частично освобождает врачей от рутинной бумажной работы и готовит информацию, но за диагноз и лечение все равно отвечает человек.
Благодаря медицинским чат-ботам на основе ChatGPT пациенты получили возможность напрямую обращаться к "виртуальному доктору". Эта сфера пока никак не регламентирована. Ученые пытаются найти оптимальные варианты сочетания ИИ с опытом и знаниями специалистов.
"В более отдаленной перспективе я могу представить себе некую технологию, при которой клиницисты присматривают за ИИ, как лечащие врачи — за своими стажерами, —
Цифровая эмпатия
Среди медиков распространено мнение, что конкуренция с ИИ им не страшна, поскольку машинный разум способен лишь механически интерпретировать данные и не в состоянии заменить пациенту общение с врачом. Американские исследователи под руководством доктора Джона Айерса из Калифорнийского университета в
В качестве исходных данных взяли 195 случайно выбранных вопросов пользователей онлайн-сообщества Ask a Doctor (
Ответы ChatGPT на те же вопросы без указания источника вместе с рекомендациями реальных врачей представили на суд экспертов-медиков. В 79 процентах случаев специалисты отдали предпочтение вариантам ИИ.
"Там более детализированная и точная информация", — отметила одна из участниц эксперимента, практикующая медсестра из Сан-Диего Джессика Келли.
Рекомендации чат-бота были и более чуткими: эмпатия в 9,8 раза выше, чем у врачей. Это объясняется заранее запрограммированными лингвистическими приемами.
"Эмпатия — сложный эмоциональный и когнитивный процесс, — говорит доктор философии Эдивирира Десаприя, сотрудник медицинского факультета Университета Британской Колумбии в
Профессор искусственного интеллекта в Университете Бата Нелло Кристианини в
Интеллектуальный помощник
Сгенерированные ИИ сообщения воспринимались как более информативные и чуткие прежде всего благодаря развернутости и подчеркнутому уважению к пациенту.
"Длинные ответы более популярны, это сказывается на рейтинге", — уточняет Десаприя.
Ученые считают, что использование ChatGPT в качестве помощника оправданно в клинических условиях. При дистанционном консультировании ИИ можно доверить шаблоны ответов, которые затем отредактируют специалисты. Это ускорит процесс, облегчит работу врачей и улучшит результаты лечения.
Такую систему уже
Еще одно направление — электронные медицинские карты. Генеративный искусственный интеллект OpenAI GPT-4 предназначен для обработки и фиксации бесед врачей с больными.
Предвзятость и выдумывание "фактов"
Базой данных для Chat GPT обычно служат открытые источники в интернете. Но индивидуальные особенности пациента известны только лечащему врачу. В Медицинской школе
Советы чат-бота оказались хуже: по понятности — на десять процентов, по эффективности — почти на 20.
Тем не менее у чат-ботов есть свои плюсы. Генеративный ИИ незаменим, когда нет возможности обратиться в клинику. Он учитывает последнюю научную информацию, а ответы адаптирует к разным уровням грамотности. Кроме того, обладает способностью к самообучению.
Из минусов — явление, которое назвали "предвзятостью автоматизации". Речь идет о склонности людей, в том числе специалистов, излишне доверять выводам ИИ при принятии решений.
Профессор автоматизированного мышления Университета Лидса Энтони Кон считает, что врач должен сохранять бдительность и всегда проверять рекомендации чат-бота.
"Большие языковые модели, такие как ChatGPT, нередко выдумывают "факты". Опасно полагаться только на искусственный интеллект, — предостерегает он. — С чат-ботом нужна осторожность. Это лишь вспомогательный инструмент медицинского работника".
Недавно ученые из
Вывод: искусственный интеллект может существенно повысить качество медицинской помощи, но его надо умело применять и контролировать, а диагнозы и рекомендации по лечению тщательно проверять.