Вульгарное, но более точное определение для “галлюцинаций” искусственного интеллекта

Не просто вопрос терминологии

Это не просто ваши фантазии — ChatGPT действительно «несёт чушь», утверждает группа исследователей. В новой статье, опубликованной в журнале «Этика и информационные технологии», три философа из Университета Глазго в Шотландии утверждают, что склонность чат-ботов выдумывать не стоит называть «галлюцинациями», потому что на самом деле это нечто гораздо менее лестное. 

Галлюцинация, как известно всем, кто изучал психологию, обычно определяется как видение или восприятие чего-то, чего на самом деле нет. Использование этого термина в контексте искусственного интеллекта явно метафорично, потому что большие языковые модели (LLM) ничего не видят и не воспринимают — и, как утверждают исследователи из Глазго, эта метафора неверна в данном случае. Для этого есть более подходящее понятие — «врать». 

«Машины не пытаются сообщить что-то, во что они верят или что воспринимают», — говорится в статье. «Их неточность не связана с неправильным восприятием или галлюцинациями. Как мы уже указывали, они вообще не пытаются передать информацию. Они просто врут».

Называя вещи своими именами

В основе утверждения исследователей Майкла Таунсенда Хикса, Джеймса Хамфриса и Джо Слейтера лежит веселая и остроумная работа философа Гарри Франкфурта 2005 года по эпистемологии «О вранье». Как резюмируют глазговцы, общее определение вранья по Франкфурту — это «любое высказывание, в котором говорящий безразличен к истинности высказывания». Само объяснение, в свою очередь, делится на два «вида»: на «твёрдое вранье», которое происходит, когда есть намерение ввести в заблуждение, и «мягкое вранье», которое произносится без всякого умысла. 

интеллект, галлюцинац

«ChatGPT — это, как минимум, «мягкий лжец» или «машина для лжи», потому что, если он не является агентом, то он не может иметь ни отношения к истине, ни намерения обмануть пользователей относительно своих целей», — пишут исследователи. Вместо того, чтобы иметь какое-либо намерение или цель, чат-боты имеют одну единственную задачу: выдавать текст, похожий на человеческий. 

Ссылаясь на случай с адвокатом, который использовал ChatGPT для написания юридического заключения и в итоге представил судье кучу «липовых» юридических прецедентов, команда UG утверждает, что LLM уже зарекомендовали себя искусными лжецами — и подобные вещи могут становиться все более опасными по мере того, как люди все больше и больше полагаются на чат-ботов в своей работе. 

«Инвесторы, политики и представители широкой общественности принимают решения о том, как относиться к этим машинам и как на них реагировать, основываясь не на глубоком техническом понимании того, как они работают, на часто метафорическом способе описания их способностей и функций», — заявляют исследователи. 

«Называние их ошибок «галлюцинациями» не безобидно: это приводит к путанице, будто машины каким-то образом неправильно воспринимают информацию, но тем не менее пытаются передать то, во что верят или что, по их мнению, они восприняли. Они ни во что не верят, они создают человекоподобный текст».

Читайте также: Три фазы эволюции искусственного интеллекта, которые могут произойти в этом столетии

этот таинственный мир
этот таинственный мир
этот таинственный мир
этот таинственный мир
этот таинственный мир
Дерево, которое может жить более 1000 лет
Дерево, которое может жить более 1000 лет
Как путешествовать во времени, не нарушая физики Эйнштейна
Как путешествовать во времени, не нарушая физики Эйнштейна
Скрытый оттенок: почему древние цивилизации не видели синий цвет?
Скрытый оттенок: почему древние цивилизации не видели синий цвет?
Якуруна: загадочные хранители Амазонских вод
Якуруна: загадочные хранители Амазонских вод
Как могут выглядеть инопланетяне?
Как могут выглядеть инопланетяне?
previous arrow
next arrow
Поделиться

Добавить комментарий