Кто знал, что включение всего Реддита в большую языковую модель будет плохой идеей?
Собаки, играющие в НФЛ. Советы по замене “жидкости для поворотных сигналов” в вашем автомобиле. Рекомендации бегать с ножницами, чтобы укрепить иммунитет. Это лишь несколько примеров того, каково использовать новый ИИ Overview от Google.
После многих лет (потенциально незаконного) доминирования в отрасли, имя Google стало синонимом “поиска в интернете”. Но их все более противоречивые проекты с генеративным ИИ могут стремительно уничтожить эту репутацию – особенно экспериментальная функция “Overview”, уже доступная многим пользователям. Представленная как способ обобщить широкий спектр веб-сайтов и уже опубликованного (зачастую защищенного авторским правом) контента, “Overview”, по заявлениям Google, якобы позволяет людям посещать “большее разнообразных веб-сайтов для получения помощи по более сложным вопросам”.
“Overview” может давать много правильных ответов, но когда он ошибается, он ошибается по-крупному. Самый вирусный пример на данный момент – предложение Google на этой неделе использовать “1/8 стакана клея Элмерс” чтобы сделать более густым соус для пиццы. Это вызвало шквал шуток. Теперь кажется, что “Overview” позаимствовал этот (ужасный) лайфхак из старого десятилетнего анекдота на Реддите, из-за чего некоторые люди указали, что обучение мощной языковой модели на постах Реддита было ошибкой. (Google сделал это без спроса и теперь будет платить этому форуму $60 млн в год).
В заявлении, предоставленном The Verge и другим изданиям, представитель Google утверждал, что идеи вроде смазывания пиццы клеем появляются только при поиске “очень необычных запросов, не характерных для большинства людей”.
Только непонятно, что такого необычного в поиске рецептов пиццы? В сетях уже появились аккаунты, посвященные выявлению “достаточно хороших” по мнению Google примеров Overview. И проблем, судя по постам, у ребят из Google предостаточно.
Конечно, возможно, многие из таких странных утверждений, как “Президент Джон Адамс 21 раз окончил Университет Висконсина”, “змеи – млекопитающие” и “сделайте хлорный газ для чистки стиральной машины”, могут быть обычными подделками, но тот факт, что невозможно отличить правду от фейка, лишь подчеркивает более глубокую экзистенциальную проблему интернета. И если хотя бы часть многочисленных опасных или просто абсурдных предложений ИИ от Google окажется правдой – а как показывает Ars Technica, так и есть – утверждение, что это просто “баги в системе”, вряд ли убережет компанию от лавины судебных исков.
Google обещает, что компания постоянно работает над улучшением своих продуктов, включая “Overview”. В заявлении, также предоставленном Ars Technica, представитель отметил: “Мы провели обширное тестирование, прежде чем запустить этот новый продукт, и будем использовать подобные единичные случаи ошибок для дальнейшего совершенствования наших систем”. Неясно, как долго такие ложные ответы будут продолжать появляться в “Overview” и можно ли вообще исправить этот недостаток. Но, по крайней мере, у Google теперь более чем достаточно “единичных случаев” для использования в качестве учебного опыта.
Читайте также: Искусственный интеллект уже стал мастером лжи и обмана, предупреждают ученые