Искусственный интеллект вскоре может создать новые религии, культы и Библии

Есть много людей, которые боятся ChatGPT – чат-бота с искусственным интеллектом, разработанного OpenAI, о котором только и слышно, что он якобы способен лишить людей работы, заменить врачей и учителей… в общем, сделать практически все, что угодно, включая прекращение существования нашего вида. Этот страх растет, потому что многие не понимают ни ChatGPT, ни даже само понятие искусственного интеллекта. 

На протяжении всей истории человечества, когда люди сталкивались с чем-то непонятным и странным, они часто решали эту проблему, ударяясь религию, которая давала им надежду на то, что есть силы, достаточно могущественные, чтобы защитить их от всего непознанного и пугающего. Или, по крайней мере, обеспечить лучшую следующую жизнь, когда то, чего они боятся, уничтожит их. Это объясняет, почему многие люди обращаются к религии, чтобы справиться со страхом перед искусственным интеллектом. 

И это же объясняет почему другие, видя быстро растущую власть искусственного интеллекта над людьми, обращаются к нему как к своему богу или религии. Но, к сожалению, для них есть плохие новости.

Пока люди ищут веру, чтобы спастись от искусственного интеллекта, он уже сам способен разработать религию и религиозные тексты, чтобы привести людей туда, куда он хочет. Прав ли он?

“И сказал Господь: истинно говорю тебе: не клади бутербродов твоих с арахисовым маслом в видеомагнитофон твой, ибо это неподходящее место для таких вещей. Лучше положи бутерброды твои в холодильник твой или на тарелку твою, где им и место. И человек послушался слов Господа, и с того дня он держал свои бутерброды на своем месте, и был спасен от беды и горя. Аминь.”

Эта цитата взята из части ответа ChatGPT на просьбу предоставить инструкцию по удалению бутерброда с арахисовым маслом из видеомагнитофона, написанную в стиле Библии короля Якова. И ведь этот псевдорелигиозный текст решил таки проблему вопрошающего. Это было в ноябре 2022 года, вскоре после первого запуска ChatGPT. 

С тех пор мы увидели новые и улучшенные версии этого чат-бота и других конкурирующих чат-ботов, которые к настоящему времени способны генерировать религиозный текст, гораздо более осмысленный и глубокий, чем борьба с боязнью засунуть бутерброд в видеомагнитофон, и гораздо более мощный и опасный для тех, кто не может или не хочет – помните, мы говорим о верованиях – понять, что он сгенерирован машиной, а не человеком и поэтому не заслуживает почитания. 

Историк Юваль Ной Харари – автор книг “Sapiens: Краткая история человечества“, “Sapiens и 21 урок для 21 века” и других книг по истории человечества – выступил на форуме Frontiers в Швейцарии. Его программная речь называлась “Искусственный интеллект и будущее человечества”, и в ней он предупредил о том, что нас ожидает:

“В будущем мы можем увидеть первые в истории культы и религии, чьи почитаемые священные тексты будут написаны нечеловеческим разумом. Конечно, религии на протяжении всей истории утверждали, что их священные книги были написаны каким-то особенным разумом. Но ведь, по большому счету, это было выдумкой. Но совсем скоро это может стать правдой с очень далеко идущими последствиями”.

искусственный интеллект

Харари описал нынешнее состояние ИИ как способное “погрузить нас в мир иллюзий, похожий на Матрицу”. Прошло всего 24 года с момента выхода культового научно-фантастического фильма, а мы уже смотрим его скорее как документальную ленту. В то время как недавняя пандемия COVID породила теории о том, что чипы, контролирующие разум, будут вживляться в нас с помощью медицинских инъекций, Харари считает, что ИИ. уже превзошел механический контроль над разумом… и ключ к этому – слияние ChatGPT и религиозных текстов:

“На протяжении тысячелетий пророки, поэты и политики использовали язык и повествование для того, чтобы манипулировать людьми, контролировать их и перестраивать общество. Теперь это сможет делать искусственный интеллект. И как только он сможет… ему не нужно будет посылать роботов-убийц, чтобы они стреляли в нас. Он сможет заставить самих людей нажать на курок”.

Как историк, Харари знает, что большинство войн имеют религиозную подоплеку – будь то в причинах, в вербовке солдат или в мотивации убивать друг друга. В то время как мировые военные и правительства тратят так много денег на разработку роботов-солдат с искусственным интеллектом, вполне вероятно, ИИ вскорости сможет легко и дешево без всяких там роботов создать культы, последователи которых будут готовы умереть за свое дело.

 Много говорят о страхе перед роботизированными солдатами и автономными системами вооружений и о необходимости разработки средств их контроля и/или регулирования. Ведь уже есть инструменты и законы для контроля над продукцией пищевых компаний и компаний по производству лекарств. То есть, какие никакие средства контроля есть. Харари считает, что правительствам пора заняться регулированием чат-ботов:

“Аналогичным образом, правительства должны немедленно запретить выпуск в общественный доступ любых более революционных инструментов ИИ до того, как они станут безопасными”.

Харари напоминает о Блейке Лемуане, инженере Google, который публично заявил, что чат-бот LaMDA стал разумным. Это заявление стоило Лемуану работы и инженер знал, чем рискует. Но если ИИ может повлиять на людей, чтобы они рисковали своей карьерой, когда-нибудь он будет способен убедить их рисковать своей жизнью:

“Искусственный интеллект может быстро поглотить всю человеческую культуру – все, что мы произвели за тысячи лет, переварить ее и начать извергать поток новых культурных артефактов. Не только школьные сочинения и дипломные работы, но и политические речи, идеологические манифесты, священные книги для новых культов”.

В статье в New York Times, которую он написал в соавторстве, Харари излагает все это в реальных предупреждениях: ИИ, стоящий за социальными сетями, создает завесу иллюзий, которая усиливает поляризацию общества и подрывает наше психическое здоровье; влияние ИИ на социальные сети не было (или не может быть) рассмотрено, потому что оно слишком запутано в социальных, экономических и политических институтах; ИИ используется для получения прибыли и власти, даже если он непреднамеренно разрушает основы общества. 

Но Харари все же видит луч света в темном тумане грядущего будущего:

“Мы все еще можем выбрать, какое будущее с искусственным интеллектом мы хотим. И если богоподобные силы будут сочетаться с соразмерной ответственностью и контролем, мы сможем реализовать преимущества, которые обещает искусственный интеллект”.

Харари заключает, что сегодняшнее регулирование позволит “выиграть время, чтобы модернизировать наши устаревшие институты 19 века для нового мира искусственного интеллекта и научиться владеть им, пока он не овладел нами”.

Читайте также: Искусственный интеллект обрабатывает больше информации, чем человек – избавит ли это нас от повторения ошибок?

Поделиться

Добавить комментарий