Сегодня мы общаемся с нейросетями как с умными, но совершенно безынициативными стажерами: пока не напишешь подробнейший промпт, работа не сдвинется с места. Но этот формат доживает свои последние дни. Наступает эра «проактивного ИИ» — систем, которые сами читают вашу почту, сами планируют ваш день и сами решают ваши проблемы до того, как вы о них вообще узнаете. Звучит как мечта об идеальном секретаре? Подождите, пока этот ИИ не отдаст ваши данные первому встречному хакеру.
Если вдуматься, то текущая архитектура нашего взаимодействия с искусственным интеллектом выглядит довольно жалко. Вы просыпаетесь. Вспоминаете, что нужно спланировать командировку или свести квартальный отчет. Открываете вкладку с ChatGPT или Claude. Пишете запрос. Нейросеть отвечает. Вы уточняете промпт, потому что железка вас не совсем поняла. Итерируете до победного конца, забираете результат и закрываете вкладку. До следующего раза, когда вы вспомните, что вам нужна помощь.
Содержание
Исследователи Киара Ниргхин (стипендиатка Питера Тиля и выпускница Стэнфорда) и Никхара Ниргхин заявляют: мы застряли в парадигме реактивности. Главным «бутылочным горлышком» современных технологий является не вычислительная мощность серверов, не размер контекстного окна и не количество параметров модели. Главный тормоз — это человеческая когнитивная пропускная способность. Вся ценность ИИ сегодня зависит от одной хрупкой переменной: от вашей способности заметить проблему, вспомнить о нейросети и правильно сформулировать запрос.
Эпоха цифрового собирательства
Ученые приводят блестящую историческую аналогию. До 10 000 года до нашей эры люди были собирателями. Наша связь с природой была реактивной: увидели ягоду — съели, увидели саблезубого тигра — убежали.
С нейросетями мы сейчас ведем себя как цифровые неандертальцы в эпоху палеолита. Мы бродим по цифровым интерфейсам и реагируем на возникающие задачи. Мы «вытягиваем» (pull-model) ценность из ИИ порциями, ограничиваясь собственным вниманием и памятью.
Затем случилась Неолитическая революция. Люди начали сажать семена и одомашнивать животных — то есть проактивно менять среду под свои нужды. Именно этот сдвиг подарил нам цивилизацию, письменность и математику. По мнению исследователей, переход к проактивному ИИ станет такой же сельскохозяйственной революцией для машинного интеллекта. ИИ перестанет быть оракулом, к которому ходят за советом, и станет фоновым процессом, который активно формирует нашу реальность.
От автоматизации к истинной проактивности
Венчурные инвесторы весь последний год прожужжали нам уши про «ИИ-агентов», которые якобы могут автономно выполнять сложные задачи. Но давайте посмотрим правде в глаза: большинство современных агентов — это просто автоматизированные скрипты с прикрученной языковой моделью. Они не просыпаются утром с мыслью о том, что ваш календарь на следующую неделю выглядит как катастрофа, и не отменяют без спроса низкоприоритетные созвоны.
Чтобы ИИ действительно стал проактивным, ему требуются четыре фундаментальных архитектурных сдвига:
- Непрерывное фоновое восприятие. Нейросеть должна постоянно находиться в контексте вашей жизни. Иметь доступ к потокам вашей почты, мессенджерам, браузеру и финансовым сводкам 24/7.
- Моделирование долгосрочных целей. ИИ должен запоминать ваши привычки, ценности и невысказанные предпочтения, постоянно обновляя вашу «цифровую модель» в своей памяти.
- Обучение в реальном мире. Если агент ответил на письмо за вас, а ваш босс в ответ разозлился на пассивно-агрессивный тон, система должна отследить этот результат и скорректировать поведение).
- Ограниченная автономия. Это самое сложное. ИИ должен иметь право действовать без вашего явного одобрения каждого шага. Иначе вся концепция теряет смысл.
Математика продуктивности изменится радикально. Сегодня вы получаете пользу от ИИ, скажем, 4 часа в неделю, пока активно с ним переписываетесь. В проактивной парадигме ваш ассистент генерирует ценность все 168 часов в неделю. Разница не в процентах, а в порядках величин.
Столкновение с реальностью: дикий запад OpenClaw
Звучит как утопия, но авторы предупреждают: системы, действующие непрерывно, катастрофически расширяют возможности атаки для хакеров. И чтобы убедиться в этом, далеко ходить не надо — достаточно взглянуть на события начала 2026 года.
Именно в этот момент интернет сошел с ума по OpenClaw — опенсорсной системе автономных агентов, созданной австрийским разработчиком Петером Штайнбергером. Проект, который изначально назывался Clawdbot (а затем Moltbot), всего за пару месяцев набрал более 200 000 звезд на GitHub, обогнав по темпам роста Docker и React.
OpenClaw стал воплощением той самой переходной стадии к проактивности. Это не облачный чат-бот, который забывает вас после закрытия вкладки. Это ИИ, который живет локально на вашем компьютере (Mac Mini или сервере), интегрируется в некоторые мессенджеры, имеет постоянную память и может реально выполнять команды в терминале, управлять файлами и писать код, пока вы спите.
Но идиллия длилась недолго. В конце января и феврале 2026 года вскрылась пугающая изнанка этой архитектуры. Эксперты по кибербезопасности обнаружили в OpenClaw критические уязвимости. Самая громкая из них — CVE-2026-25253 (оценка критичности 8.8 из 10) — представляла собой уязвимость удаленного выполнения кода (RCE) буквально в один клик.
Проблема заключалась в том, что агент слепо доверял параметрам подключения. Злоумышленнику было достаточно заставить пользователя (или самого агента, сканирующего веб-страницы) открыть вредоносную ссылку. В ту же секунду хакер получал токен аутентификации агента, а вместе с ним — полный беспарольный контроль над локальной машиной жертвы. Другая уязвимость, CVE-2026-26322, позволяла хакерам использовать ИИ-ассистента для сканирования внутренних закрытых сетей корпораций через подделку серверных запросов (SSRF).
Как справедливо отмечают аналитики из Immersive Labs, проактивные агенты вроде OpenClaw создают негосударственные пути доступа, которые обходят все традиционные системы безопасности (например, двухфакторную аутентификацию). Если ваш проактивный ИИ имеет прямой доступ к входящей почте, хакеру достаточно прислать вам письмо со скрытым «промпт-инъектом». Вы это письмо даже не прочитаете, а ваш заботливый ИИ-секретарь уже послушно выполнит спрятанную в нем команду злоумышленника — например, перешлет базу данных клиентов на внешний сервер.
Инцидент с OpenClaw идеально иллюстрирует тезис: мощь без строгих ограничений автономии и надежной архитектуры безопасности — это просто другое название для катастрофы.
Коллега, а не инструмент
Бывший кандидат в президенты США и IT-миллиардер Росс Перо однажды сказал: «Слова дешевы. Слов много. Бесценны поступки». ChatGPT может сгенерировать гениальный пошаговый план по спасению вашего бизнеса, проанализировать риски и продумать запасные варианты. Но как только вы закроете окно браузера, ничего не произойдет. Слова останутся словами.
Переход к проактивному ИИ — это эволюция от удобного электроинструмента к цифровому коллеге. Шуруповерт умножает ваши усилия, когда вы берете его в руки. Коллега сам замечает проблему, предлагает решение и берет на себя инициативу.
Эра чат-ботов (2023–2025) научила нейросети пользоваться внешними инструментами. Следующее десятилетие научит их инициировать процессы без нашего пинка. Человеческая роль в этом цикле изменится навсегда: мы перестанем быть «операторами», дергающими за рычаги промптов, и станем «губернаторами», задающими границы дозволенного и оценивающими результаты.
Продуктивность человечества взлетит до небес. Нам останется лишь расслабиться в кресле и судорожно мониторить логи, надеясь, что наш гиперактивный цифровой помощник не решил оптимизировать бюджет компании, инвестировав все средства в сомнительные мем-коины, и не раздал админские права первому написавшему в мессенджер хакеру.
Источники:
- Kiara Nirghin & Nikhara Nirghin. AI that acts before you ask is the next leap in intelligence. Big Think (March 6, 2026). Оригинал: bigthink.com/science-tech/proactive-ai/
- Отчеты по безопасности агента OpenClaw (CVE-2026-25253, CVE-2026-26322) от Immersive Labs, SentinelOne и Centre for Cybersecurity Belgium (Январь-Февраль 2026).
- What Is OpenClaw? The Open-Source AI Agent That Actually Does Things. MindStudio (February 2026).
Читайте также: Мы, возможно, никогда не узнаем, обладает ли искусственный интеллект сознанием
Помочь донатом на Boosty.
Комментировать можно ниже в разделе “Добавить комментарий”.





