Если искусственный интеллект связан с риском нашего вымирания, то необходимо уточнить, как это может произойти

30 мая 2023 года группа известных и авторитетных исследователей искусственного интеллекта подписала короткое заявление:

“Снижение риска вымирания от ИИ должно стать глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война”.

Любое заявление, сформулированное подобным образом, неминуемо вызовет тревогу, поэтому его авторам, вероятно, следовало бы быть более конкретными и прояснить свои опасения.

Согласно энциклопедическому определению, вымирание – это “исчезновение (смерть) всех представителей определенного биологического вида”. Многие подписанты заявления являются одними из самых авторитетных и солидных ученых в этой области – и они, безусловно, преследуют благие цели. Однако они не представили нам никакого реального сценария того, как может произойти такое экстремальное событие.

Мы уже не в первый раз оказываемся в таком положении. 22 марта этого года петиция, подписанная другим кругом предпринимателей и исследователей, потребовала приостановить развертывание ИИ на шесть месяцев. В петиции, размещенной на сайте Института будущего жизни, в качестве обоснования они указали: “Глубокие риски для человечества, как показывают обширные исследования и признают ведущие лаборатории искусственного интеллекта” – и сопроводили свою просьбу списком риторических вопросов:

“Должны ли мы позволить машинам наводнить наши информационные каналы пропагандой и неправдой? Должны ли мы автоматизировать все рабочие места, включая те, которые приносят прибыль? Должны ли мы развивать нечеловеческий интеллект, который в конечном итоге превзойдет, перехитрит, сделает нас устаревшими и заменит нас? Должны ли мы рисковать потерей контроля над нашей цивилизацией?”.

Общее чувство тревоги

Конечно, верно, что наряду со многими преимуществами эта технология сопряжена с рисками, к которым мы должны относиться серьезно. Но ни один из вышеупомянутых сценариев не описывает никакого пути к вымиранию. Это означает, что мы остаемся с общим чувством тревоги, без каких-либо возможных попыток к спасению, которые мы можем предпринять.

интеллект
Генеральный директор OpenAI Сэм Альтман дал показания перед Конгрессом США 16 мая 2023 года.

На сайте Центра безопасности ИИ, где появилось последнее заявление, в отдельном разделе описаны восемь широких категорий риска. К ним относятся “вооружение” ИИ, его использование для манипулирования новостной системой, возможность того, что люди в конечном итоге станут неспособны к самоуправлению, установлению деспотических режимов и так далее.

За исключением оружия, неясно, как другие риски могут привести к вымиранию нашего вида, и бремя объяснения этого лежит на тех, кто такое утверждает.

Оружие, конечно, вызывает реальную озабоченность, но следует также уточнить, что под этим подразумевается. На своем сайте Центр безопасности ИИ сообщает, что основное беспокойство вызывает использование систем ИИ для разработки химического оружия и это якобы следует предотвратить любой ценой. Но химическое оружие и так уже запрещено. Вымирание – это очень специфическое событие, которое требует очень специфических объяснений.

16 мая 2023 года на слушаниях в Сенате США Сэма Альтмана, генерального директора компании OpenAI, которая разработала чат-бот ChatGPT AI, дважды попросили рассказать о том, каким он видит наихудший сценарий. В конце концов он ответил:

“Мои худшие опасения заключаются в том, что мы все – область разработки искусственного интеллекта, технология, индустрия – нанесем значительный вред всему миру… Именно поэтому мы основали компанию, чтобы предотвратить такое будущее… Но я думаю, что если что-то в этой технологии пойдет не так, то тогда все может пойти совсем не так, как мы планируем”.

Конечно же, необходимо быть настолько осторожными, насколько это возможно, но важно сохранять чувство меры – особенно когда речь идет о вымирании вида, состоящего из восьми миллиардов особей.

Искусственный интеллект может создать нам социальные проблемы, которые действительно необходимо предотвратить. Ученые обязаны понять их, а затем сделать все возможное для их решения. 

Но первый шаг – назвать и описать их – и быть точными в определении.

Читайте также: Искусственный интеллект вскоре может создать новые религии, культы и Библии

Поделиться

Добавить комментарий