Величайший вызов человечеству: эксперты обсуждают экзистенциальные риски искусственного интеллекта

В последние годы стремительное распространение искусственного интеллекта (ИИ) стало маяком инноваций, обещая перекроить мир с небывалой эффективностью и познаниями. Однако под поверхностью этих технологических достижений таится множество вопросов и опасений, отбрасывающих тень на сияющие перспективы искусственного интеллекта.

Ученые, эксперты и широкая общественность начинают сомневаться в траектории развития технологий ИИ и их последствиях для будущего человечества. В центре дискуссии – вопрос, представляет ли искусственный интеллект экзистенциальную угрозу для человечества.

Недавно группа из пяти экспертов собралась, чтобы изучить экзистенциальные риски, которые несет ИИ.

“Риск, который меня беспокоит, – не внезапное, мгновенное событие, – сказал Бенджамин Будро, изучающий взаимосвязь этики, новых технологий и безопасности. – Это ряд постепенных вредных воздействий, которые со временем усугубляются. Как и изменение климата, ИИ может стать медленно развивающейся катастрофой, которая подрывает институты и возможности, необходимые нам для достойной жизни”.

Д-р Джонатан Уэлберн, старший научный сотрудник, отметил, что прогресс в ИИ имеет схожие параллели с прошлыми периодами технологических потрясений. Однако, в отличие от появления электричества, печатного станка или интернета, главная озабоченность д-ра Уэлберна по поводу искусственного интеллекта заключается в его потенциале усиливать существующее неравенство в обществе и вводить новые формы предвзятости, потенциально подрывая социальную и экономическую мобильность.

Д-р Джефф Олстотт, директор Центра политики технологий и безопасности и старший научный сотрудник по информационным технологиям, обрисовал особенно мрачную картину будущих вызовов. Он поделился своей самой глубокой обеспокоенностью, отметив, что перспектива использования искусственного интеллекта злонамеренными субъектами в качестве оружия “не дает мне спать по ночам”.

“Биологическое оружие является одним из примеров, где исторически барьерами были информация и знания. Теперь вам не нужно много специализированного оборудования или дорогостоящих приборов, чтобы вызвать разрушительные последствия, спровоцировав пандемии, – пояснил д-р Олстотт. – ИИ поможет преодолеть разрыв в знаниях. А биологическое оружие – лишь один пример. Та же история повторяется с ИИ и химическим, ядерным, кибероружием”.

В ходе дискуссии основная озабоченность экспертов была связана не с самой технологией, а с потенциальным злоупотреблением людьми искусственного интеллекта в вредоносных целях.  

“Для меня ИИ – это бензин для огня, – объяснила д-р Нидхи Калра, старший научный сотрудник. – Меня меньше беспокоит риск самого ИИ, чем сам огонь – буквальные пожары от изменения климата и потенциальной ядерной войны, и образные пожары растущего неравенства доходов и враждебности”.

По поводу недоверия, вызванного ИИ, и подрыва государственных устоев, исследователь политики доктор Эдвард Гейс выразил свою обеспокоенность по поводу искусственного интеллекта более прямо, заявив: “ИИ угрожает стать усилителем человеческой глупости”.  

искусственного интеллекта

После всестороннего анализа последних научных исследований д-р Роман Ямпольский, эксперт по безопасности ИИ и доцент Луисвиллского университета, выявил дополнительную экзистенциальную угрозу, исходящую от ИИ. По словам д-ра Ямпольского, нет доказательств, что сверхразумный ИИ можно безопасно контролировать. Он предупредил: “Без доказательств, что ИИ можно контролировать, его не следует развивать”.

“Мы сталкиваемся с почти гарантированным событием, способным вызвать экзистенциальную катастрофу, – предостерег д-р Ямпольский. – Неудивительно, что многие считают это самой важной проблемой, с которой когда-либо сталкивалось человечество. Результатом станет или процветание или вымирание, и судьба Вселенной висит на волоске”.  

В недавней работе д-р Атуса Касирзаде, доцент Эдинбургского университета, специализирующаяся на этике, безопасности и философии искусственного интеллекта, исследовала экзистенциальные риски, которые несет ИИ.  

По ее словам, традиционная дискуссия об экзистенциальных рисках ИИ обычно фокусируется на “решающих” угрозах или внезапных, катастрофических событиях, вызванных продвинутыми системами искусственного интеллекта, которые “приводят к вымиранию человечества или необратимо наносят вред человеческой цивилизации до такой степени, что восстановление невозможно”.

Д-р Касирзаде объяснила, что развитие ИИ также несет “накопительные” риски. В этом сценарии постепенные риски, связанные с ИИ, накапливаются со временем, постепенно подрывая устой. Этот процесс продолжается, пока не произойдет критическое событие, приводящее к необратимому коллапсу.

Эксперты разошлись во мнениях о том, представляет ли ИИ прямую экзистенциальную угрозу для будущего человечества.

Д-р Уэлберн и д-р Калра заявили, что в настоящее время ИИ не представляет необратимой угрозы, указывая на долгую историю преодоления человечеством серьезных вызовов.  

“Оглядываясь на миллионы лет назад, можно сказать, мы невероятно живучий вид, – сказала д-р Калра. – Этого не следует недооценивать”.

Напротив, д-р Будро и д-р Олстотт полагают, что ИИ представляет явную угрозу будущему человечества, отмечая, что вымирание человеческой расы – не единственная катастрофическая опасность, которую может создать ИИ для обществ.

“Один из вероятных путей – гибель людей, – пояснил д-р Будро. – Но другой путь – это если мы больше не будем заниматься осмысленной человеческой деятельностью, если у нас не будет воплощенного опыта, если мы больше не будем взаимодействовать со своими собратьями-людьми. Я думаю, что в этом заключается экзистенциальный риск искусственного интеллекта”.

Все пятеро экспертов единогласно согласились, что независимые и высококачественные исследования сыграют решающую роль в оценке кратко- и долгосрочных рисков искусственного интеллекта и формировании соответствующей государственной политики.

Решение проблемы экзистенциальных рисков ИИ потребует многогранного подхода, акцентированного на прозрачности, контроле и инклюзивной политике. Обеспечение того, чтобы интеграция ИИ в нашу жизнь усиливала, а не ослабляла нашу человечность, имеет первостепенное значение.

Эксперты подчеркнули, что этот процесс должен включать серьезные исследования и политическую волю, а также формировать сообщества, устойчивые к широкому спектру кризисов, с которыми мы можем столкнуться в будущем, наполненном ИИ.

“Исследователи несут особую ответственность за изучение вреда и рисков. Речь идет не только о самой технологии, но и о контексте – о том, как ИИ интегрируется в системы уголовного правосудия, образования и трудоустройства, чтобы мы могли видеть взаимодействие между ИИ и благополучием человека, – сказал д-р Будро. – Но я не думаю, что существует какое-то техническое решение. Нам нужен гораздо более широкий взгляд на то, как мы строим устойчивые сообщества, способные справляться с проблемами общества”.

Читайте также: Искусственный интеллект теперь способен воспроизводиться без человека

Поделиться

Добавить комментарий