Об идее свержения человечества искусственным интеллектом говорят уже несколько десятилетий, и в 2021 году ученые вынесли свой вердикт о том, сможем ли мы контролировать высокоуровневый искусственный интеллект. Их ответ: почти наверняка нет.
Загвоздка в том, что для управления сверхинтеллектом, находящимся далеко за пределами человеческого понимания, потребуется симуляция этого сверхинтеллекта, которую мы сможем анализировать (и контролировать). Но если мы не в состоянии постичь его, то и создать симуляцию не сможем.
Такие правила, как “не причинять вреда людям”, не могут быть установлены, если мы не понимаем, какие сценарии будет придумывать искусственный интеллект (ИИ). Как только компьютерная система начнет работать на уровне, превышающем возможности наших программистов, мы больше не сможем устанавливать ограничения.
“Сверхинтеллект представляет собой принципиально иную проблему, чем те, которые обычно изучаются под вывеской “этики роботов”, – пишут исследователи. – Это связано с тем, что сверхинтеллект многогранен и, следовательно, потенциально способен мобилизовать разнообразные ресурсы для достижения целей, которые будут непостижимы для человека, не говоря уже о том, чтобы их можно было контролировать”.
Часть рассуждений команды была основана на проблеме остановки, выдвинутой Аланом Тьюрингом в 1936 году. Она заключается в том, чтобы понять, придет ли компьютерная программа к выводу и ответу (и остановится), или просто будет вечно циклиться, пытаясь найти ответ.
Как доказал Тьюринг с помощью умной математики – мы можем знать это для некоторых конкретных программ, но логически невозможно найти способ, который позволит нам знать это для каждой потенциальной программы, которая когда-либо может быть написана. Это возвращает нас к ИИ, который в сверхразумном состоянии сможет хранить в своей памяти все возможные компьютерные программы одновременно.
Любая программа, написанная для того, чтобы не дать ИИ причинить вред людям и уничтожить мир, например, может прийти к выводу (и остановиться), а может и не прийти. Математически невозможно быть абсолютно уверенным в любом случае, а это значит, что ее нельзя контролировать и сдерживать.
“По сути, это делает алгоритм сдерживания непригодным для использования”, – сказал компьютерный ученый Ияд Рахван из Института развития человека имени Макса Планка в Германии.
По словам некоторых ученых, альтернативой обучению ИИ этике и запрету на уничтожение мира является ограничение возможностей сверхинтеллекта. Например, он может быть отрезан от части Интернета или от определенных сетей.
Но авторы исследования отвергли и эту идею, предположив, что это ограничит сферу применения ИИ. Их аргумент: если мы не собираемся использовать искусственный интеллект для решения проблем, выходящих за рамки человеческих возможностей, то зачем тогда вообще его создавать ?
С другой стороны, если мы будем развивать искусственный интеллект, мы можем даже не узнать, когда появится сверхинтеллект, неподвластный нашему контролю, настолько непостижимым он станет. Это означает, что нам нужно уже сейчас начать задавать серьезные вопросы о том, в каком направлении мы движемся.
“Сверхразумная машина, управляющая миром, звучит как научная фантастика, – говорит компьютерный ученый Мануэль Кебриан из Института развития человека имени Макса Планка. – Но уже существуют машины, которые самостоятельно выполняют некоторые важные задачи и программисты не полностью понимают, как они этому научились. Поэтому возникает вопрос, может ли это в какой-то момент стать неконтролируемым и опасным для человечества”.
Читайте также: Искусственный интеллект никогда не будет думать как человек. И это нормально