Современные системы искусственного интеллекта (ИИ), основанные на больших языковых моделях (LLM) – такие как ChatGPT и Llama, – поражают своей беглостью и убедительностью в ответах. Однако они часто допускают серьезные ошибки, выдавая неправдивую или бессмысленную информацию с высокой уверенностью. Исследователи из Университета Токио обнаружили поразительное сходство между этим явлением и речевым расстройством афазией, при котором человек говорит бегло, но бессмысленно.
Профессор Такамитсу Ватанабэ и его команда применили метод анализа энергетического ландшафта – технику, изначально разработанную для изучения магнитных металлов и недавно адаптированную для нейронауки – чтобы сравнить активность мозга пациентов с афазией и внутренние процессы в LLM. Результаты показали, что паттерны обработки информации в ИИ удивительно напоминают сигналы мозга при афазии, особенно при типе, известном как афазия Вернике.
«Представьте энергетический ландшафт как поверхность с шариком, который катится по ней. В норме шарик быстро находит устойчивое положение, а при афазии – он постоянно качается, не находя покоя», – объясняет Ватанабэ. Аналогично, ИИ может застревать в жестких внутренних паттернах, что ограничивает гибкость и точность ответов.
Это исследование открывает новые горизонты как для нейронауки, так и для развития ИИ:
- Для медицины: Возможность диагностики и мониторинга афазии на основе анализа внутренней активности мозга, а не только внешних симптомов.
- Для ИИ: Разработка методов улучшения архитектуры языковых моделей, что поможет создавать более надежные и адекватные системы.
При этом учёные предупреждают, что ИИ не страдает от повреждений мозга, а лишь демонстрирует сходные паттерны работы, что требует осторожности в интерпретации.
Читайте также: Искусственный интеллект и ученые соревнуются кто предложит лучшие идеи
Комментировать можно ниже в разделе “Добавить комментарий”.