Как укротить "демонов" искусственного интеллекта
Зуев
председатель совета директоров "Биорг"
Искусственный интеллект неизбежно становится новой парадигмой жизни. На его основе строится множество систем - от поиска Google до механизмов, обеспечивающих автономное перемещение беспилотных автомобилей. И по мере его проникновения во все сферы экономики и госуправления все чаще звучат опасения, связанные с неконтролируемым влиянием роботов на нашу жизнь. Несколько лет назад Илона Маска спросили, что он думает об искусственном интеллекте, и он сравнил его с вызовом демона, которого нельзя призывать, если нет возможности его контролировать. Действительно ли опасны эти "демоны"? Насколько большим может быть ущерб от "неправильных" действий ИИ? Что можно сделать, чтобы свести его к минимуму?
Ответы на эти вопросы ищет Георгий Зуев, председатель совета директоров "Биорг". Он считает, что реальные риски лежат совсем в другой плоскости и связаны вовсе не с неподконтрольными человеческому разуму алгоритмами.
Риски для жизни
Программа, которая способна по собственной инициативе перепрограммировать любую систему, а потом обернуть ее против человека, - это скорее сюжет для фантастического фильма. Искусственный интеллект не имеет абстрактного мышления и не умеет самостоятельно расширять собственную функциональность. Он делает ровно то, чему его научил человек. Или чему он научился сам, используя заложенные в него человеком данные. ИИ может стать опасным только в том случае, если будет сознательно запрограммирован на враждебность. Так что пока все апокалиптические рассуждения, что передовое вооружение получит "собственный разум", - это не более чем "перевод стрелок". Беспилотные самолеты, или дроны, летают уже давно, но боевые команды им отдают люди.
Навредить человеку ИИ может также в случае, если перед ним неправильно поставлена задача. Если беспилотный автомобиль запрограммировать как можно быстрее добраться из точки А в точку Б, то он, безусловно, выполнит эту задачу, а вот будет ли он вместе с этим выполнять правила дорожного движения и объезжать выскакивающих на проезжую часть пешеходов - большой вопрос. Главным тормозом, сдерживающим массовое появление на улицах беспилотного транспорта, является неспособность ИИ делать верный выбор в сложной, непредвиденной ситуации. Этот выбор всегда остается за человеком. И попытка переложить его на машину может привести к печальным последствиям.
Риски для здоровья
Пожалуй, самой серьезной угрозой, связанной с применением искусственного интеллекта, является его использование в сфере медицины. Любая ошибка машины в постановке диагноза или прогнозе развития заболевания чревата риском для жизни пациентов. Не секрет, что успешные кейсы внедрения ИИ в систему здравоохранения можно пересчитать по пальцам. А вот провалов - намного больше. Один из самых известных связан с компанией Epic Systems - крупнейшим американским разработчиком систем ведения электронных медицинских карт. Компания запатентовала 20 алгоритмов ИИ, предназначенных для выявления различных заболеваний, получила инвестиции, а при ближайшем рассмотрении оказалось, что ее модель умеет выявлять патологии с точностью не более 33%. То есть машина была в состоянии поставить правильный диагноз, условно, 33 пациентам из 100. Это значит, что если бы медучреждение полностью доверило ей диагностику, то 67 человек из 100 не получили бы правильного лечения. Не справился с заявленной целью и американский стартап Theranos, который обещал революционный метод анализа крови по минимальному объему материала. Не дала обнадеживающих результатов и машинная диагностика коронавируса.
Многочисленные попытки внедрения ИИ в сфере здравоохранения "спотыкаются" о недостаток и низкое качество данных. В сфере диагностической медицины качественных, верифицированных, публично доступных датасетов все еще очень мало. Это международная проблема, без решения которой на уровне государств предикативная аналитика будет нести в себе риск критических ошибок, которые могут негативно повлиять на здоровье и продолжительность жизни людей.
Риски испорченной репутации и бизнес-потерь
Один известный на нашем рынке банк сформировал базу данных для голосового помощника на основе диалогов, собранных автоматическим путем из открытых источников в Сети. Чат-бот поначалу бойко отвечал на вопросы, но в какой-то момент "растерялся" и предложил клиентке… отрезать себе пальцы. Случился скандал. И хотя, конечно, этот прецедент - скорее исключение, чем правило, многие голосовые помощники несут в себе скрытые угрозы для бизнеса своих создателей. Сколько раз мы бросали трубку, когда робот категорически отказывался переключать нас на оператора? Сколько раз не получали прямой ответ на вопрос? Невозможность быстро решить проблему плохо влияет на клиентский опыт. Когда решение задачи затягивается, лояльность клиента падает. Любая задержка раздражает, а нерешенные проблемы наводят на мысль о смене - банка, сотового оператора или клининговой компании.
Не менее скандальная история связана с медицинским чат-ботом компании Nabla, который создан для того, чтобы общаться по рядовым вопросам с пациентами - например, записывать их на прием или давать простые советы. И если поначалу его ошибки были достаточно "невинными" (человеку с затрудненным дыханием бот посоветовал посмотреть видео с обучением растяжке), то последней каплей стал утвердительный ответ чат-бота на вопрос абонента: "Должен ли я убить себя?".
Неправильные прогнозы относительно заполняемости стоков или востребованности того или иного продукта тоже могут больно ударить по бюджету компании. Если ранее компания не вела статистику и не систематизировала данные, формирование датасетов может быть сложной задачей. Более тщательный отбор диалогов и документов, ручная разметка и постмодерация, проверка данных на токсичность с помощью "биологического интеллекта" - человека - может сделать из чат-ботов реальных помощников и способствовать реализации прогнозов Gartner, который утверждает, что уже в этом, 2022 году, 70% всех коммуникаций в сервисных индустриях с клиентами будут происходить при помощи искусственного интеллекта.
Риски дискриминации
Несколько лет тому назад команда программистов Amazon создавала программу для проверки резюме соискателей. Вскоре они осознали, что она отдает предпочтение мужчинам на технических должностях, после чего рекрутеры компании отказались от использования ИИ для оценки кандидатов из-за потенциальных проблем с дискриминацией.
В нашей стране эта проблема пока еще не проявила себя в полной мере, но на Западе пользователи бьют тревогу, наблюдая, как человеческие предубеждения переносятся на искусственный интеллект. И не только в сфере рекрутмента. В нескольких штатах США искусственный интеллект используется для расчета вероятности преступления: он служит помощником для судей, которые решают, отпускать подсудимого под залог или нет. Практика показала, что чернокожих нарушителей машина лишала возможности выйти под залог в два раза чаще, чем белых, пренебрегая обстоятельствами правонарушения и биографиями подсудимых.
Во всех подобного рода ситуациях проблема заключается в том, что алгоритмы, используемые для принятия тех или иных решений, не были должным образом протестированы перед использованием. Но сам по себе ИИ никаких предрассудков не имеет и не является носителем нравственных нормативов. Принятие решений и прогнозирование систем ИИ, как и в случае с чат-ботами, зависят исключительно от типа данных, на которых они обучены. Организации, которые не тратят время и усилия на поиск разнообразных наборов данных, с большой вероятностью будут сталкиваться с такими проблемами.
Работа искусственного интеллекта в любом его воплощении сопряжена с рисками. Искусственный интеллект - как ребенок: что в него вложишь, то и получишь. Если не сильно заботиться о его воспитании, то, скорее всего, в будущем придется удивляться - и в кого он такой вырос? Единого решения, позволяющего раз и навсегда устранить любые риски, не существует. Для корректной работы систем искусственного интеллекта прежде всего требуются правильные наборы данных, отличающиеся высоким качеством и разнообразием. Чем обширнее стартовая база данных, тем больше возможностей для обучения нейросети и выработки полноценных прогнозов.
Чтобы свести угрозы ИИ к минимуму, нужно соблюдать несколько правил. Для начала обеспечьте максимально полные базы данных для обучения ИИ. Чем больше клиентских запросов, историй болезней или ситуаций на дороге загрузить в систему, тем лучше и точнее она будет работать. Если у машины мало стартовой информации для "осмысления", будьте готовы к ошибкам. Далее - подключите человеческий разум для разметки датасетов и верификации стартовых прогнозов, определите, отражает ли прогноз причинно-следственные связи и действительно ли они верные. Обучение нейросети без привлечения людей не дает желаемого результата. Некоторые компании привлекают к решению этих задач собственных операторов или же передают работу на аутсорсинг профильным исполнителям. Не обойтись и без разработки мер безопасности, которые будут отсекать доступ к системам ИИ потенциальным злоумышленникам. И наконец не стоит спешить с массовым внедрением ИИ во все бизнес-процессы: начните с малых задач, отработайте методику, оцените экономический эффект, устраните риски и только потом расширяйте использование ИИ в другие сферы.