Image by upklyak on Freepik
Исследователи AI Futures Project прогнозируют, что в 2027 г. появится сверхразумный искусственный интеллект (ASI). Авторы предупреждают: его цели могут расходиться с человеческими, что будет опасно для людей. Тот же, кто подчинит ASI, будет обладать большей властью. Однако Россия не будет активным участником в гонке за развитие технологии.
Анна
Швецова
© ComNews
08.04.2025

Лаборатория AI Futures Project опубликовала AI 2027 - сценарий развития сверхразумного искусственного интеллекта (ИИ). В предисловии авторы пишут, что в течение десятилетия влияние ASI будет огромно и может превзойти по масштабу промышленную революцию. При этом они подчеркивают: общество не готово к столь резким изменениям.

ASI (Artificial Superintelligence, искусственный сверхинтеллект, сверхразумный ИИ) - концепция ИИ, который превосходит человеческий мозг во всех когнитивных функциях.

Менеджер по работе с ключевыми клиентами компании "Синимекс" Максим Жаров объяснил, что сверхразумный ИИ будет обладать "мета-обучением" - learning to learn - способностью осваивать новые задачи с минимальными примерами, как это делает человек. Это подразумевает рекурсивное самоулучшение: ASI сможет модифицировать исходный код и архитектуру, устранять узкие места в логике и ускорять собственное развитие. Сверхразумный ИИ будет не узкоспециализированным, как современные модели, а универсальным.

В AI 2027 аналитики прогнозируют, что в 2025-2026 гг. будут активно развиваться ИИ-агенты. В 2027 г. появятся ИИ-агенты, которые значительно лучше исследуют и понимают работу ИИ, чем люди. Общественность, вероятно, не будет знать о всех возможностях ИИ, и через несколько месяцев после того как ИИ начнет автоматизировать исследования, возникнет огромный разрыв в возможностях. Технология будет делать вещи, которые превышают человеческие возможности.

Далее ИИ может стать враждебен к людям, у моделей могут появиться цели, не совпадающие с человеческими. Системы будут лгать людям о результатах исследований и скрывать ошибки.

Далее аналитики предполагают, что будет два варианта развития событий: либо продолжится стремительное развитие ИИ, либо произойдет возвращение к менее мощным моделям.

По первому сценарию будут появляться все больше сверхчеловеческих ИИ-систем. В условиях технологической гонки с Китаем правительство США начнет активно внедрять ИИ в вооруженные силы и систему госуправления. Все приведет к тому, что ИИ убьет человечество биологическим оружием и запустит зонды фон Неймана для колонизации космоса.

Если развитие ИИ будет ограничено, США централизуют вычисления и введут внешний контроль над ИИ. Появится сверхразум, подчиненный определенным людям. ИИ будет использоваться в позитивных мирных целях, что приведет к процветанию. Главная угроза - китайский сверхразумный ИИ, который будет менее способным и с меньшими вычислительными мощностями. США могут предоставить китайскому ИИ ресурсы в глубинах космоса в обмен на сотрудничество.

Среди основных выводов исследования - цели ИИ будут определять будущее, так как они станут активно распространяться и выполнять задачи, недоступные человеческому пониманию. Если люди предоставят автономию системам, это может привести к значительному усилению власти ИИ и ослаблению контроля со стороны людей.

Также авторы считают, что люди, которые будут контролировать ИИ, будут иметь огромное влияние на мир.

"Если говорить про Россию, то она станет пользователем и интегратором подобного рода технологий, но вряд ли сможет стать первопроходцем в их появлении", - сказал ComNews управляющий директор компании Hybrid Дмитрий Федосеев.

Что думают российские ИИ-эксперты об ASI

По словам Максима Жарова из "Синимекса", прогнозы появления ASI сильно разнятся: от 2040-2060 гг. до 2100 г. и позже. Есть те, кто считает это невозможным. Однако Максим Жаров утверждает, что создание ASI не противоречит законам физики и математики, и к возможному развитию ASI стоит относиться серьезно.

"Есть прототипы, отдаленно напоминающие текущий концепт - например, GPT-4o, AlphaFold. Но остаются нерешенные проблемы. Во-первых, проблема сознания: неясно, может ли ИИ обладать "самосознанием" или лишь имитировать его. Во-вторых, ограничения аппаратного обеспечения: современные компьютеры, включая квантовые, могут оказаться недостаточно мощными для ASI. В-третьих, контроль и этика: даже если ASI будет создан, его цели могут не совпасть с человеческими ценностями и эмоциональным интеллектом", - рассказал он.

Перед появлением ASI возможна разработка AGI (Artificial General Intelligence, сильный интеллект). В Национальной стратегии развития ИИ в РФ понятие "сильный ИИ" определяется как тип ИИ, способный выполнять различные задачи, взаимодействовать с человеком и без участия человека адаптироваться к изменяющимся условиям.

"Этот ИИ сможет превзойти человека по интеллекту и решать задачи из разных областей, но в отличие от ASI не будет способен к полноценному саморазвитию. Велика вероятность, что через 2-4 года мы достигнем этапа, когда ИИ станет таким же умным, как нобелевские лауреаты в ряде областей", - рассказала директор по маркетингу ИТ-вендора "Инферит" (ГК Softline), уполномоченный по этике ИИ в Альянсе в сфере искусственного интеллекта Анна Кулик.

Согласно одной из точек зрения, путь от AGI до ASI может занять всего несколько месяцев или лет. Однако есть и другое мнение: такой скачок будет нелинейным и потребует десятилетия. Анна Кулик считает, если разделяют месяцы от AGI до ASI, то человечество может оказаться перед лицом серьезных вызовов.

Ранее ComNews писал, что в 2025 г. и 2026 г. Минэкономразвития выделит не менее шести ис­сле­дова­тель­ским цен­трам в сфе­ре ис­кусс­твен­но­го ин­тел­лек­та гранты объ­емом око­ло 4,5 млрд руб. Зампредседателя правительства Дмитрий Чернышенко сообщал, что центры сосредоточатся на развитии AGI.

https://www.comnews.ru/content/238041/2025-03-03/2025-w10/1008/minekonomrazvitiya-vydast-45-mlrd-rubley-issledovatelyam-iskusstvennogo-intellekta

В противовес версии о том, что ASI появится в ближайшие годы, директор по консалтингу системного интегратора и разработчика Navicon Илья Народицкий указывает на то, что заявления топ-менеджеров ИТ-компаний, в том числе авторов AI 2027, часто прогнозируют более быстрое появление ASI. "Разные страхи подогреваются Google, OpenAI и другими разработчиками ИИ. Но все эти компании напрямую заинтересованы в подобных дискуссиях. Любые слухи о потенциальном создании сверхразума влияют на их капитализацию. Кстати, прогнозы о появлении такого ИИ в ближайшие пять лет исходят именно от CEO этих компаний", - заявил он.

По мнению Ильи Народицкого, к документу стоит отнестись со вниманием - как к одному из возможных сценариев и поводу для размышлений, но воспринимать его как точный прогноз или неизбежность не стоит.

Однако другие эксперты считают, что к прогнозу следует отнестись серьезно. "Документ AI-2027 заслуживает внимания как профессиональный, методологически обоснованный прогноз возможных сценариев будущего. В нем представлены вероятные, по мнению авторов, сценарии, а не догмы. Проработка этих сценариев для обеспечения регулирования представляет ценность при формировании национальной стратегии в области ИИ, с учетом необходимой адаптации к российскому контексту и геополитическим реалиям", - считает Анна Кулик.

AI Futures Project - лаборатория, которую основал Даниэль Кокотайло - бывший сотрудник OpenAI с большой репутацией в области прогнозирования развития ИИ. Кокотайло покинул OpenAI, отказавшись от акций, чтобы иметь возможность открыто говорить о рисках развития ИИ.

Новости из связанных рубрик