Невролог предупредил, что нынешнее поколение сетей с искусственным интеллектом – социопаты

Мрачные мысли.

ИИ-социопат

Нейробиолог из Принстона Майкл Грациано в своем новом эссе предупреждает, что чат-боты, не имеющие сознания и работающие на основе искусственного интеллекта, обречены быть опасными социопатами, которые могут представлять реальную угрозу для людей.

С появлением таких чат-ботов, как ChatGPT, мощных систем, способных в впечатляющей степени имитировать человеческий разум, инструменты искусственного интеллекта стали доступнее, чем когда-либо прежде. Но эти алгоритмы будут бойко лгать обо всем, что соответствует достижению их цели. Чтобы привести их в соответствие с нашими ценностями, считает Грациано, им понадобится сознание:

“Сознание – это часть набора инструментов, который эволюция дала нам, чтобы сделать нас эмпатичным, просоциальным видом. Без него мы обязательно были бы социопатами, потому что у нас не было бы инструментов для просоциального поведения”.

Эмпат-машина

Конечно, ChatGPT не собирается выпрыгивать из экрана и убивать кого-то. Но наделение искусственного интеллекта все большими полномочиями может иметь вполне реальные последствия, которых нам следует опасаться в недалеком будущем.

социопат

Чтобы сделать их более послушными, по мнению Грациано, мы должны позволить им осознать, что мир полон других разумов, кроме их собственного.

Однако есть одна проблема: у нас нет эффективного способа узнать, обладает ли ИИ сознанием или нет. На самом деле, с философской точки зрения, трудно даже точно определить, обладают ли другие люди сознанием.

“Если мы хотим узнать, является ли компьютер сознательным, то нам нужно проверить, понимает ли компьютер, как взаимодействует сознательный разум, – утверждает Грациано. – Другими словами, нам нужен обратный тест Тьюринга: Надо выяснить, сможет ли компьютер определить, с кем он разговаривает – с человеком или с другим компьютером”.

Если мы не сможем ответить на эти непростые вопросы, то, по его мнению, мы можем столкнуться с печальными последствиями.

“Социопатическая машина, которая может принимать решения, имеющие последствия, была бы очень опасна, – пишет ученый. – Пока что возможности чат-ботов ограничены; по сути, сегодня это игрушки. Но если мы не будем более глубоко задумываться о сознании машин, то через год или пять лет мы можем столкнуться с проблемами”.

Читайте также: Мы не сможем контролировать сверхразумный искусственный интеллект

Поделиться

Добавить комментарий