Сэм Альтман предупреждает, что искусственный интеллект быстро учится “сверхчеловеческой убедительности”

Он опасается, что это “может привести к очень странным результатам”.

Человечество, скорее всего, еще далеко от создания искусственного интеллекта общего назначения (AGI), или ИИ, который будет соответствовать когнитивным функциям человека, – если, конечно, мы вообще когда-нибудь сможем это сделать.

Но независимо от того, наступит такое будущее или нет, генеральный директор OpenAI Сэм Альтман предупреждает: искусственный интеллект не обязательно должен быть умным на уровне AGI, чтобы взять под контроль наш слабый человеческий разум.

“Я ожидаю, что искусственный интеллект будет способен к сверхчеловеческому убеждению задолго до того, как он станет сверхчеловеком по общему интеллекту, – написал Альтман в своем Твиттере 24 октября, – что может привести к весьма странным результатам”.

Хотя Альтман не уточнил, что это за весьма странные результаты, предсказание не является голословным. Чат-боты с искусственным интеллектом, такие как ChatGPT компании OpenAI, создавались для того, чтобы быть хорошими собеседниками, но стали до жути убедительными, даже если они совершенно не правы.

В то же время верно и то, что люди уже начинают формировать эмоциональные связи с различными чат-ботами, что делает их тексты гораздо более убедительными.

искусственный интеллект
Сэм Альтман, директор Open AI.

Разочаровавшиеся люди уже несколько десятилетий стекаются в самые темные уголки Интернета в поисках общения и поддержки, и нетрудно представить себе сценарий, при котором злоумышленник может нацелиться на одного из таких уязвимых людей с помощью чат-бота с искусственным интеллектом и убедить его совершить какой-нибудь плохой поступок. И хотя недовольные люди являются очевидной мишенью, стоит также отметить, насколько среднестатистический пользователь Интернета восприимчив ко всякого рода мошенничеству и дезинформации. Если к этому добавить искусственный интеллект, то у злоумышленников появится невероятно убедительный инструмент для манипулирования массами.

Но мы должны беспокоиться не только о случаях явного манипулирования. Технологии прочно входят в повседневную жизнь большинства людей, и даже если между человеком и ботом нет эмоциональной или романтической связи, мы уже очень доверяем ему. Это, вероятно, подталкивает нас к такому же доверию и к системам искусственного интеллекта. Реальность, которая может превратить любую галлюцинацию ИИ в потенциально гораздо более серьезную проблему.

Может ли искусственный интеллект использоваться для того, чтобы склонить человека к плохому поведению или деструктивному образу мышления? В этом нет ничего невероятного. Но поскольку системы ИИ пока не обладают самостоятельностью, нам, вероятно, лучше меньше беспокоиться о самом ИИ, а больше внимания уделять тем, кто пытается им злоупотреблять.

Интересно, что одним из тех людей, которые могут быть наиболее способны смягчить эти неоднозначные воображаемые “странные результаты”, является сам Альтман, учитывая видное положение его компании OpenAI и то влияние, которое он имеет в данной сфере.

Читайте также: Если искусственный интеллект связан с риском нашего вымирания, то необходимо уточнить, как это может произойти

Поделиться

Добавить комментарий