Перестаньте говорить, что ChatGPT “галлюцинирует”

Чтобы галлюцинировать, вам нужно сначала воспринять.

Большие языковые модели иногда фабрикуют информацию и представляют ее как факт – это явление часто называют “галлюцинацией”. 

Мы находимся на заре новой эры. За последний год или около того появились новые версии искусственного интеллекта, что дало повод некоторым утверждать, что настоящий машинный разум уже не за горами. Это воспринимается либо как божий дар, который приведет человечество в обетованную землю чудесного процветания, либо как экзистенциальная угроза, влекущая за собой невообразимые опасности. Но за обоими утверждениями стоит часто неоспоримое предположение о том, кем мы, как разумные существа, являемся и что происходит внутри этих технологий. Нигде эти предположения или скрытые предубеждения не проявляются так ярко, как в утверждениях о том, что ChatGPT и подобные программы могут “галлюцинировать”.

Когда люди используют термин “галлюцинация” в отношении чат-ботов, они имеют в виду их удивительную способность “придумывать” ответы на вопросы. Если вы попросите чатбота написать статью на определенную тему и указать ссылки, некоторые из предоставленных им цитат могут оказаться полной выдумкой. Источников просто не существует и никогда не существовало. Когда запрашивается биографическая информация о реальном человеке, чатбот может выдать просто ложные сведения, как будто он взял их из воздуха и представил как факты. Такую способность генерировать неверную информацию и называют галлюцинацией. Но использование этого термина в данном контексте скрывает опасное заблуждение о состоянии искусственного интеллекта и его связи с тем, что делают люди, когда галлюцинируют.

Предпосылки для галлюцинаций

Если поискать в Интернете определение галлюцинации, то можно получить примерно следующее: “Галлюцинация – это ложное восприятие объектов или событий при помощи ваших органов чувств: зрения, слуха, обоняния, осязания и вкуса. Галлюцинации кажутся реальными, но это не так”. Важным моментом здесь является связь с восприятием. Чтобы галлюцинировать, нужно сначала воспринять; вы уже должны быть воплощены в этом мире. Если воспользоваться термином из феноменологии, вы уже должны быть встроены в богатый и целостный “жизненный мир”, который несет в себе множество контекстов о том, как этот мир функционирует. Но то, что происходит в чатботе с большой языковой моделью (LLM), даже близко не похоже на то, что происходит у вас.

галлюцин

Текущая версия этих технологий основана на статистике, а не на практическом опыте. Чат-боты обучаются на огромных массивах данных, обычно взятых из интернета, которые позволяют им разрабатывать статистические корреляции между символами, например, буквами, из которых состоят слова. Вычислительная мощность, необходимая для создания этих огромных сетей статистических корреляций и мгновенного использования их для получения ответов на вопрос, например “Есть ли у Тейлор Свифт щенок?”, просто поражает воображение. Тот факт, что они работают так хорошо, – безусловно, технологическое достижение высшего порядка. Но этот успех скрывает важное ограничение, которое остается незамеченным, когда их неудачи причисляют к галлюцинациям.

LLM не галлюцинирует, когда выдает вам выдуманную ссылку в работе по римской истории, которую вы только что попросили его написать. Его ошибка не в том, что он делает ложное заявление о мире, потому что он ничего о нем не знает. Внутри алгоритма большой языковой модели никто ничего не знает ни о чем. Что не менее важно: LLM ни в коем случае не живет в нашем мире, в котором можно совершать ошибки. Он просто выдает строки символов, основываясь на слепом статистическом поиске в огромном гипермерном пространстве корреляций. Что точно можно сказать, так это то, что ошибку совершаем именно мы, когда используем созданные нами машины для ответов на вопросы.

Слепые зоны

Так почему же называть эти статистические ошибки галлюцинациями ошибочно? Быть человеком, быть живым – значит быть погруженным в опыт. Опыт – это предпосылка, предварительное условие для всего остального. Это та почва, которая позволяет всем идеям, концепциям и теориям быть возможными. Не менее важно и то, что опыт нередуцируем. Это то, что дано; это конкретное. Опыт, практика – это не просто “быть наблюдателем” – он приходит гораздо гораздо позже, когда вы уже абстрагировались от воплощенного, прожитого качества встроенности в живой настоящий мир.

Разговоры о том, что чатботы галлюцинируют, – это именно то, что мы подразумеваем под “слепой зоной”. Это безусловное философское допущение, которое сводит опыт к чему-то вроде обработки информации. Оно заменяет абстракцией, воплощенной в технологии (что всегда имеет место), то, что на самом деле означает быть субъектом, способным к опыту. Вы не компьютер из мяса. Вы не машина для предсказаний, основанная на статистических выводах. Использование такой абстракции, как “обработка информации”, может быть полезным в длинной цепи других абстракций, целью которых является выделение определенных аспектов живых систем. Но вы не можете втиснуть целостную совокупность опыта обратно в тонкую, бескровную абстракцию, выжатую из этой совокупности.

Искусственному интеллекту найдется место в будущих обществах, которые мы хотим построить. Но если мы не будем осторожны, если мы позволим себе не замечать богатства нашей сущности, то то, что мы создадим на основе ИИ, сделает нас менее человечными, поскольку мы будем вынуждены соответствовать его ограничениям. Это гораздо большая опасность, чем то, что роботы проснутся и захватят власть.

Читайте также: Искусственный интеллект теряет рассудок после обучения на данных, созданных искусственным интеллектом

Поделиться

Добавить комментарий