Искусственное сознание – это скучно

Искусственное сознание и его реальность – это нечто более сложное для понимания.

Не очень давно компания Google отправила одного из своих инженеров в административный отпуск после того, как он заявил, что столкнулся с машинным сознанием, которое он обнаружил в гугловском диалоговом агенте под названием LaMDA. Поскольку машинный разум – это основной элемент фантастических фильмов, а мечта об искусственной личности стара как сама наука, то эта история быстро стала вирусной и привлекла гораздо больше внимания, чем практически любая история об алгоритме обработки естественного языка (NLP). А жаль. 

Предположение о том, что LaMDA является разумной – это нонсенс. На самом деле LaMDA не более разумна, чем карманный калькулятор. И еще вызывает разочарование, что какой-то глупой фантазии уделили столько внимания в разговоре об искусственном интеллекте. Ведь как раз сейчас ведутся гораздо более странные и затратные, а также потенциально опасные, но прекрасные разработки.

Тот факт, что в центре внимания оказалась именно LaMDA, откровенно говоря, немного удивляет. LaMDA – это всего лишь диалоговый агент. Цель диалоговых агентов – убедить вас в том, что вы разговариваете с человеком. Но абсолютно человекоподобные чат-боты на данный момент далеко не новаторская технология. Например, программа Project December, способна воссоздавать умерших близких людей с помощью НЛП. Но в этих симуляциях жизни не больше, чем в фотографии вашего умершего прадедушки.

Сегодня уже существуют модели, более мощные и таинственные, чем LaMDA. LaMDA оперирует 137 миллиардами параметров, которые в широком смысле являются обычными шаблонами языка. Эти шаблоны НЛП на основе трансформации использует для создания осмысленных текстовых предсказаний. 

А ведь у Google есть новейшая модель под названием PaLM, которая использует 540 миллиардов параметров и способна решать сотни отдельных задач, не будучи специально обученной для их выполнения. Это настоящий искусственный интеллект общего назначения, поскольку он может применять себя для решения различных интеллектуальных задач без специального обучения. Прямо “из коробки”, так сказать.

Некоторые из этих задач, безусловно, полезны и потенциально могут изменить многое в нашей жизни. 

По словам инженеров, если вы зададите ему вопрос на бенгальском языке, он сможет ответить как на бенгальском, так и на английском. Если вы попросите его перевести часть кода с языка Cи на Python, он сможет это сделать. Он может резюмировать текст. Он может объяснить шутки. 

А еще есть функция, которая поразила даже разработчиков, и которая требует определенной дистанции и интеллектуального хладнокровия, чтобы не сойти с ума. PaLM может мыслить. Или, если быть более точным – а точность здесь очень важна – PaLM может рассуждать.

Метод, с помощью которого PaLM рассуждает, называется “побуждение к цепочке мыслей”. Шаран Наранг, один из инженеров, возглавляющих разработку PaLM, сказал, что большие языковые модели никогда не были хороши в логических переходах, если их специально не обучали этому. Если дать большой языковой модели ответ на математическую задачу, а затем попросить воспроизвести способ решения этой задачи, то, как правило, это не сработает. Но в подсказках “по цепочке мыслей” вы объясняете способ получения ответа, а не даете сам ответ.  Такой подход ближе к обучению детей, чем к программированию машин. “Если бы вы просто сказали детям, что ответ 11, они бы растерялись. Но если вы разложите все по полочкам, они справятся лучше”, – говорит Наранг.

искусственное сознание

К общей странности этого свойства добавляется тот факт, что инженеры Google сами не понимают, как и почему PaLM способен выполнять эту функцию. Отличие PaLM от других моделей может заключаться в большой вычислительной мощности. Конечно же у инженеров есть свои предположения, но они пока не хотят их озвучивать. Проще говоря, PaLM “продемонстрировал возможности, которых мы не видели раньше”, – сказал мне Ааканша Чоудхери, член команды PaLM, который, как никто другой из инженеров, близок к пониманию PaLM.

Все это, конечно, не имеет никакого отношения к искусственному сознанию. 

“Я не занимаюсь антропоморфизмом, – прямо сказал Чоудхери. – Мы просто предсказываем язык”. 

Искусственное сознание – это далекая мечта, которая прочно укоренилась в научной фантастике, потому что мы до сих пор понятия не имеем, что такое человеческое сознание. Нет ни одного работающего тезиса о сознании, только куча смутных представлений. А если нет способа проверить наличие сознания, то нет и способа его запрограммировать. Вы можете попросить алгоритм сделать только то, что вы ему скажете. Все, что мы можем придумать для сравнения машин и людей, – это маленькие игры, такие как игра Тьюринга в имитацию, которые в конечном итоге ничего не доказывают.

Вместо этого мы пришли к чему-то более чуждому, чем искусственное сознание. Странным образом, такую программу, как PaLM, было бы легче понять, если бы она просто была разумной. Мы, по крайней мере, знаем, чего ждать от сознания. Но все функции PaLM, которые описаны выше, происходят не более чем из предсказания текста. То есть, какое слово будет иметь смысл следующим? Вот и всё. 

Почему эта функция должна привести к такому огромному скачку в способности создавать смысл? Эта технология работает на субстратах, которые лежат в основе не только всего языка, но и всего смысла (а есть ли разница?), и эти субстраты в основе своей загадочны. Кажется, что PaLM обладает модальностями, которые выходят за рамки нашего понимания. Что понимает PaLM, о чем мы не знаем, как его спросить об этом?

Google в своих рекламных материалах утверждает, что PaLM демонстрирует “впечатляющее понимание естественного языка”. Но что означает слово “понимание” в данном контексте? С одной стороны, PaLM и другие большие языковые модели способны к пониманию в том смысле, что если вы им что-то скажете, то смысл будет зафиксирован. С другой стороны, это совсем не похоже на человеческое понимание.

“Я считаю, что наш язык не очень хорош для выражения таких вещей, – сказал Зубин Гахрамани, вице-президент по исследованиям в Google. – У нас есть слова для отображения смысла между предложениями и объектами, и слова, которые мы используем – это слова типа “понимание”. Проблема в том, что в узком смысле можно сказать, что эти системы понимают так же, как калькулятор понимает сложение, а в более глубоком смысле они не понимают. Мы должны воспринимать эти слова с долей скептицизма”. 

Тем не менее, Гахрамани с энтузиазмом относится к тревожной неизвестности всего этого. Он работает в области искусственного интеллекта (ИИ) уже 30 лет и убежден, что сейчас “самое захватывающее время для работы в этой области” именно из-за “скорости, с которой нас удивляют технологии”. Он видит огромный потенциал ИИ как инструмента в тех областях, где люди не справляются с объемами обработки информации, но компьютеры и системы ИИ очень хороши в них. 

искусственное сознание

“Мы склонны думать об интеллекте в очень человекоцентричном ключе, и это приводит нас к разного рода проблемам, – сказал Гахрамани. – Одна из них заключается в том, что мы антропоморфизируем технологии, которые по сути являются тупыми статистическими анализаторами шаблонов. Другая проблема заключается в том, что мы тяготеем к попыткам имитировать человеческие способности, а не дополнять их”. 

Например, люди не созданы для того, чтобы находить смысл в геномных последовательностях, но большие языковые модели могут это делать. Большие языковые модели могут найти смысл там, где мы можем увидеть только хаос.

Но быстрое развитие таких систем таят в себе и опасности для человека. Большие языковые модели не производят сознание, но они убедительно имитируют сознание. И дальше они будут только значительно улучшаться, и будут продолжать сбивать людей с толку. 

Если даже инженер Google не смог отличить диалогового агента от реального человека и поднял тревогу, то что будет, когда все это дойдет до широкой публики? В отличие от машинного разума, этот вопрос реален. Для ответа на него потребуется беспрецедентное сотрудничество гуманистов и технологов. Ведь на карту поставлена сама природа смысла.

Итак, нет, у гугловской LaMDA нет искусственного сознания. Вместо этого она создает чрезвычайно мощные языковые системы с конечной целью, как сказал Наранг, “создать единую модель, способную обобщать миллионы задач и получать данные в различных модальностях”. А PaLM пока что никто не планирует пускать в общий оборот. 

“Мы не должны забегать вперед в плане возможностей, – говорит Гахрамани. – Мы должны подходить ко всем этим технологиям с осторожностью и скептицизмом”. Искусственный интеллект, особенно, полученный на основе глубокого обучения, имеет тенденцию быстро расти в периоды шокирующего развития, а затем замирать. Однако когда происходит скачок, он происходит быстро и неожиданно. Гахрамани говорит, что мы должны достичь этих скачков безопасным путем. И он прав.

Фантазия о разумности искусственного интеллекта не просто ошибочна, она скучна. Это мечта об инновациях на основе полученных идей, будущее для людей, чьи умы никогда не покидали пределов научно-фантастических фильмов 1930-х годов. Вопросы, которые ставит перед нами новейшая технология ИИ, – более глубокие и самые простые. Это вопросы, к которым мы, как всегда, совершенно не готовы. Нужно беспокоиться о том, что у людей может просто не хватить интеллекта, чтобы справиться с эволюционирующим искусственным интеллектом. Граница между нашим языком и языком машин стирается, а наша способность понимать различия снижается.

Читайте также: Искусственный интеллект никогда не будет думать как человек. И это нормально

Поделиться

Добавить комментарий