«Никто не ждет, что компьютерная симуляция урагана создаст настоящий ветер и настоящий дождь», – пишет нейробиолог Анил Сет. И в этой простой аналогии кроется глубокая мысль о наших ожиданиях от искусственного интеллекта.
Пару лет назад, в 2022 году, имя инженера Google Блейка Лемойна прогремело на весь мир. Его уволили после громких заявлений, что чат-бот, над которым он трудился, якобы обрел сознание.
Лемойн был убежден – его детище способно чувствовать, возможно, даже страдать, и потому моральный статус больших языковых моделей (LLM) требует самого серьезного рассмотрения. Однако всерьез не восприняли самого Лемойна.
И вот, всего несколько недель назад, Кайл Фиш – сотрудник компании Anthropic, занимающийся, по его словам, «исследованием благополучия искусственного интеллекта», – заявил в интервью New York Times, что вероятность наличия сознания у чат-ботов уже сегодня составляет 15%. Что же изменилось?
Одно из ключевых изменений – споры о «сознании искусственного интеллекта» переместились из тиши философских кабинетов (и, чего уж там, шумных пивных баров) в самый центр академической жизни. Да и в технологической индустрии о них перестали говорить шепотом. Этот сдвиг, во многом спровоцированный поразительными успехами больших языковых моделей, с одной стороны, можно считать позитивным.
Ведь если мы, намеренно или случайно, создадим машины, обладающие сознанием, мир столкнется с моральным кризисом невиданных масштабов. Одним кликом мыши мы можем породить новые формы страдания, природу которых мы, возможно, даже не сможем распознать.
Я же считаю, что шансы на появление настоящего искусственного сознания – по крайней мере, при текущих траекториях развития искусственного интеллекта – гораздо ниже, чем думает большинство (и уж точно ниже упомянутых 15%). В своей работе на стыке нейронауки и искусственного интеллекта, а также в книге «Быть собой», я выделяю три причины, по которым мы склонны переоценивать вероятность появления чувствующих машин.
Первая кроется в особенностях нашей собственной психологии. Мы инстинктивно связываем «интеллект» и «сознание», полагая, что нечто достаточно умное просто обязано быть и сознательным. Но то, что эти два качества сопутствуют друг другу в нас, людях, вовсе не означает, что так происходит всегда и везде. Это допущение – скорее отражение наших психологических предубеждений, нежели глубокое понимание реальности.
Язык оказывает особенно сильное влияние на эти предубеждения. Именно поэтому люди всерьез рассуждают о сознании чат-бота Клод от Anthropic, но мало кто задумывается о наличии чувств у AlphaFold от DeepMind, программы, виртуозно сворачивающей белки.

Вторая причина – это тоже допущение: на этот раз о том, что человеческий мозг – это своего рода компьютер. Если мозг действительно всего лишь «вычислительная машина из плоти и крови», то все, что зависит от его деятельности – будь то интеллект или сознание – в принципе должно быть воспроизводимо и на кремниевой основе. Однако чем пристальнее мы изучаем мозг, тем меньше он походит на привычный нам компьютер. В нем нет четкого разделения на «программное обеспечение разума» и «биологическую начинку», как в наших кремниевых устройствах есть разделение на софт и «железо».
Даже один-единственный нейрон – это невероятно сложная биологическая фабрика. Метафора «мозг-компьютер» всегда была лишь метафорой, и мы неизбежно сталкиваемся с проблемами, когда путаем образное сравнение с настоящей реальностью. Если же мозг на самом деле не компьютер, то оснований полагать, что сознание может возникнуть в кремниевой форме, становится значительно меньше.
Третья причина заключается в том, что мы недооцениваем другие возможные объяснения феномена сознания. Никто точно не знает, как и почему оно возникает, но существует множество гипотез, выходящих за рамки простого алгоритма, с одной стороны, или нематериальной магии – с другой. Одна из версий, которую я подробно исследую, заключается в том, что сознание произрастает из нашей живой природы: именно жизнь, а не «обработка информации», вдыхает тот самый «огонь» в уравнения сознания.
Этическая сторона всего этого имеет огромное значение. Даже если настоящее искусственное сознание при нынешних формах искусственного интеллекта пока недостижимо, новые «нейроморфные» технологии, все больше уподобляющиеся человеческому мозгу, могут кардинально изменить ситуацию. Но и ИИ, который лишь кажется сознательным, уже создает этические проблемы, даже если «под капотом» у него – лишь субъективная пустота, имитация.
ИИ, имитирующий сознание, способен эксплуатировать наши психологические уязвимости, искажать моральные приоритеты. И если мы будем обращаться с тем, что кажется чувствующим, как с бесчувственным (возможно, игнорируя его «мольбы» о помощи, сколь бы симулированными они ни были), – мы рискуем огрубить собственное восприятие, притупить собственную эмпатию.
Что же нам делать перед лицом этой неопределенности? Во-первых, нам не следует целенаправленно пытаться создать искусственное сознание. Даже если мы не знаем, что для этого нужно, мы также не знаем, как полностью исключить такую возможность. Во-вторых, необходимо четко различать этические последствия существования искусственного интеллекта, который действительно обладает сознанием, и искусственного интеллекта, который правдоподобно кажется сознательным. Экзистенциальная неопределенность первого не должна отвлекать нас от явных и насущных опасностей второго.
Наконец, стоит признать, что мы сталкиваемся с такой же неопределенностью и во многих других контекстах: при оценке состояния людей с тяжелыми черепно-мозговыми травмами, других живых существ (от бактерий до летучих мышей), человеческих эмбрионов и таких удивительных творений синтетической биологии, как «церебральные органоиды» (выращенные в чашке Петри скопления клеток мозга, образующие нейронные связи).
В каждом из этих случаев неясно, присутствует ли там сознание, и каждое наше решение несет на себе огромный моральный груз. По мере развития науки, технологий и медицины все больше подобных сценариев будут перемещаться с периферии в центр нашего внимания. И то, что нам действительно необходимо, – это не что иное, как полноценное научное понимание самого сознания.
Анил Сет, нейробиолог.
Читайте также: Искусственный интеллект может решать неразрешимые задачи, но люди не смогут понять результаты
Комментировать можно ниже в разделе “Добавить комментарий”.