Сверхразумный искусственный интеллект появится в 2027 г.

Лаборатория AI Futures Project опубликовала AI 2027 - сценарий развития сверхразумного искусственного интеллекта (ИИ). В предисловии авторы пишут, что в течение десятилетия влияние ASI будет огромно и может превзойти по масштабу промышленную революцию. При этом они подчеркивают: общество не готово к столь резким изменениям.
ASI (Artificial Superintelligence, искусственный сверхинтеллект, сверхразумный ИИ) - концепция ИИ, который превосходит человеческий мозг во всех когнитивных функциях.
Менеджер по работе с ключевыми клиентами компании "Синимекс" Максим Жаров объяснил, что сверхразумный ИИ будет обладать "мета-обучением" - learning to learn - способностью осваивать новые задачи с минимальными примерами, как это делает человек. Это подразумевает рекурсивное самоулучшение: ASI сможет модифицировать исходный код и архитектуру, устранять узкие места в логике и ускорять собственное развитие. Сверхразумный ИИ будет не узкоспециализированным, как современные модели, а универсальным.
В AI 2027 аналитики прогнозируют, что в 2025-2026 гг. будут активно развиваться ИИ-агенты. В 2027 г. появятся ИИ-агенты, которые значительно лучше исследуют и понимают работу ИИ, чем люди. Общественность, вероятно, не будет знать о всех возможностях ИИ, и через несколько месяцев после того как ИИ начнет автоматизировать исследования, возникнет огромный разрыв в возможностях. Технология будет делать вещи, которые превышают человеческие возможности.
Далее ИИ может стать враждебен к людям, у моделей могут появиться цели, не совпадающие с человеческими. Системы будут лгать людям о результатах исследований и скрывать ошибки.
Далее аналитики предполагают, что будет два варианта развития событий: либо продолжится стремительное развитие ИИ, либо произойдет возвращение к менее мощным моделям.
По первому сценарию будут появляться все больше сверхчеловеческих ИИ-систем. В условиях технологической гонки с Китаем правительство США начнет активно внедрять ИИ в вооруженные силы и систему госуправления. Все приведет к тому, что ИИ убьет человечество биологическим оружием и запустит зонды фон Неймана для колонизации космоса.
Если развитие ИИ будет ограничено, США централизуют вычисления и введут внешний контроль над ИИ. Появится сверхразум, подчиненный определенным людям. ИИ будет использоваться в позитивных мирных целях, что приведет к процветанию. Главная угроза - китайский сверхразумный ИИ, который будет менее способным и с меньшими вычислительными мощностями. США могут предоставить китайскому ИИ ресурсы в глубинах космоса в обмен на сотрудничество.
Среди основных выводов исследования - цели ИИ будут определять будущее, так как они станут активно распространяться и выполнять задачи, недоступные человеческому пониманию. Если люди предоставят автономию системам, это может привести к значительному усилению власти ИИ и ослаблению контроля со стороны людей.
Также авторы считают, что люди, которые будут контролировать ИИ, будут иметь огромное влияние на мир.
"Если говорить про Россию, то она станет пользователем и интегратором подобного рода технологий, но вряд ли сможет стать первопроходцем в их появлении", - сказал ComNews управляющий директор компании Hybrid Дмитрий Федосеев.
Что думают российские ИИ-эксперты об ASI
По словам Максима Жарова из "Синимекса", прогнозы появления ASI сильно разнятся: от 2040-2060 гг. до 2100 г. и позже. Есть те, кто считает это невозможным. Однако Максим Жаров утверждает, что создание ASI не противоречит законам физики и математики, и к возможному развитию ASI стоит относиться серьезно.
"Есть прототипы, отдаленно напоминающие текущий концепт - например, GPT-4o, AlphaFold. Но остаются нерешенные проблемы. Во-первых, проблема сознания: неясно, может ли ИИ обладать "самосознанием" или лишь имитировать его. Во-вторых, ограничения аппаратного обеспечения: современные компьютеры, включая квантовые, могут оказаться недостаточно мощными для ASI. В-третьих, контроль и этика: даже если ASI будет создан, его цели могут не совпасть с человеческими ценностями и эмоциональным интеллектом", - рассказал он.
Перед появлением ASI возможна разработка AGI (Artificial General Intelligence, сильный интеллект). В Национальной стратегии развития ИИ в РФ понятие "сильный ИИ" определяется как тип ИИ, способный выполнять различные задачи, взаимодействовать с человеком и без участия человека адаптироваться к изменяющимся условиям.
"Этот ИИ сможет превзойти человека по интеллекту и решать задачи из разных областей, но в отличие от ASI не будет способен к полноценному саморазвитию. Велика вероятность, что через 2-4 года мы достигнем этапа, когда ИИ станет таким же умным, как нобелевские лауреаты в ряде областей", - рассказала директор по маркетингу ИТ-вендора "Инферит" (ГК Softline), уполномоченный по этике ИИ в Альянсе в сфере искусственного интеллекта Анна Кулик.
Согласно одной из точек зрения, путь от AGI до ASI может занять всего несколько месяцев или лет. Однако есть и другое мнение: такой скачок будет нелинейным и потребует десятилетия. Анна Кулик считает, если разделяют месяцы от AGI до ASI, то человечество может оказаться перед лицом серьезных вызовов.
Ранее ComNews писал, что в 2025 г. и 2026 г. Минэкономразвития выделит не менее шести исследовательским центрам в сфере искусственного интеллекта гранты объемом около 4,5 млрд руб. Зампредседателя правительства Дмитрий Чернышенко сообщал, что центры сосредоточатся на развитии AGI.
В противовес версии о том, что ASI появится в ближайшие годы, директор по консалтингу системного интегратора и разработчика Navicon Илья Народицкий указывает на то, что заявления топ-менеджеров ИТ-компаний, в том числе авторов AI 2027, часто прогнозируют более быстрое появление ASI. "Разные страхи подогреваются Google, OpenAI и другими разработчиками ИИ. Но все эти компании напрямую заинтересованы в подобных дискуссиях. Любые слухи о потенциальном создании сверхразума влияют на их капитализацию. Кстати, прогнозы о появлении такого ИИ в ближайшие пять лет исходят именно от CEO этих компаний", - заявил он.
По мнению Ильи Народицкого, к документу стоит отнестись со вниманием - как к одному из возможных сценариев и поводу для размышлений, но воспринимать его как точный прогноз или неизбежность не стоит.
Однако другие эксперты считают, что к прогнозу следует отнестись серьезно. "Документ AI-2027 заслуживает внимания как профессиональный, методологически обоснованный прогноз возможных сценариев будущего. В нем представлены вероятные, по мнению авторов, сценарии, а не догмы. Проработка этих сценариев для обеспечения регулирования представляет ценность при формировании национальной стратегии в области ИИ, с учетом необходимой адаптации к российскому контексту и геополитическим реалиям", - считает Анна Кулик.
AI Futures Project - лаборатория, которую основал Даниэль Кокотайло - бывший сотрудник OpenAI с большой репутацией в области прогнозирования развития ИИ. Кокотайло покинул OpenAI, отказавшись от акций, чтобы иметь возможность открыто говорить о рисках развития ИИ.
