Кто знал, что включение всего Реддита в большую языковую модель будет плохой идеей?
Собаки, играющие в НФЛ. Советы по замене «жидкости для поворотных сигналов» в вашем автомобиле. Рекомендации бегать с ножницами, чтобы укрепить иммунитет. Это лишь несколько примеров того, каково использовать новый ИИ Overview от Google.
После многих лет (потенциально незаконного) доминирования в отрасли, имя Google стало синонимом «поиска в интернете». Но их все более противоречивые проекты с генеративным ИИ могут стремительно уничтожить эту репутацию — особенно экспериментальная функция «Overview», уже доступная многим пользователям. Представленная как способ обобщить широкий спектр веб-сайтов и уже опубликованного (зачастую защищенного авторским правом) контента, «Overview», по заявлениям Google, якобы позволяет людям посещать «большее разнообразных веб-сайтов для получения помощи по более сложным вопросам».
«Overview» может давать много правильных ответов, но когда он ошибается, он ошибается по-крупному. Самый вирусный пример на данный момент — предложение Google на этой неделе использовать «1/8 стакана клея Элмерс» чтобы сделать более густым соус для пиццы. Это вызвало шквал шуток. Теперь кажется, что «Overview» позаимствовал этот (ужасный) лайфхак из старого десятилетнего анекдота на Реддите, из-за чего некоторые люди указали, что обучение мощной языковой модели на постах Реддита было ошибкой. (Google сделал это без спроса и теперь будет платить этому форуму $60 млн в год).

В заявлении, предоставленном The Verge и другим изданиям, представитель Google утверждал, что идеи вроде смазывания пиццы клеем появляются только при поиске «очень необычных запросов, не характерных для большинства людей».
Только непонятно, что такого необычного в поиске рецептов пиццы? В сетях уже появились аккаунты, посвященные выявлению «достаточно хороших» по мнению Google примеров Overview. И проблем, судя по постам, у ребят из Google предостаточно.
Конечно, возможно, многие из таких странных утверждений, как «Президент Джон Адамс 21 раз окончил Университет Висконсина», «змеи — млекопитающие» и «сделайте хлорный газ для чистки стиральной машины», могут быть обычными подделками, но тот факт, что невозможно отличить правду от фейка, лишь подчеркивает более глубокую экзистенциальную проблему интернета. И если хотя бы часть многочисленных опасных или просто абсурдных предложений ИИ от Google окажется правдой — а как показывает Ars Technica, так и есть — утверждение, что это просто «баги в системе», вряд ли убережет компанию от лавины судебных исков.
Google обещает, что компания постоянно работает над улучшением своих продуктов, включая «Overview». В заявлении, также предоставленном Ars Technica, представитель отметил: «Мы провели обширное тестирование, прежде чем запустить этот новый продукт, и будем использовать подобные единичные случаи ошибок для дальнейшего совершенствования наших систем». Неясно, как долго такие ложные ответы будут продолжать появляться в «Overview» и можно ли вообще исправить этот недостаток. Но, по крайней мере, у Google теперь более чем достаточно «единичных случаев» для использования в качестве учебного опыта.
Читайте также: Искусственный интеллект уже стал мастером лжи и обмана, предупреждают ученые




