Искусственный интеллект от Google под названием Overview советует есть клей… Серьёзно?

Кто знал, что включение всего Реддита в большую языковую модель будет плохой идеей?

Собаки, играющие в НФЛ. Советы по замене “жидкости для поворотных сигналов” в вашем автомобиле. Рекомендации бегать с ножницами, чтобы укрепить иммунитет. Это лишь несколько примеров того, каково использовать новый  ИИ Overview от Google.

После многих лет (потенциально незаконного) доминирования в отрасли, имя Google стало синонимом “поиска в интернете”. Но их все более противоречивые проекты с генеративным ИИ могут стремительно уничтожить эту репутацию – особенно экспериментальная функция “Overview”, уже доступная многим пользователям. Представленная как способ обобщить широкий спектр веб-сайтов и уже опубликованного (зачастую защищенного авторским правом) контента, “Overview”, по заявлениям Google, якобы позволяет людям посещать “большее разнообразных веб-сайтов для получения помощи по более сложным вопросам”.

“Overview” может давать много правильных ответов, но когда он ошибается, он ошибается по-крупному. Самый вирусный пример на данный момент – предложение Google на этой неделе использовать “1/8 стакана клея Элмерс” чтобы сделать более густым соус для пиццы. Это вызвало шквал шуток. Теперь кажется, что “Overview” позаимствовал этот (ужасный) лайфхак из старого десятилетнего анекдота на Реддите, из-за чего некоторые люди указали, что обучение мощной языковой модели на постах Реддита было ошибкой. (Google сделал это без спроса и теперь будет платить этому форуму $60 млн в год).

overview

В заявлении, предоставленном The Verge и другим изданиям, представитель Google утверждал, что идеи вроде смазывания пиццы клеем появляются только при поиске “очень необычных запросов, не характерных для большинства людей”. 

Только непонятно, что такого необычного в поиске рецептов пиццы? В сетях уже появились аккаунты, посвященные выявлению “достаточно хороших” по мнению Google примеров Overview. И проблем, судя по постам, у ребят из Google предостаточно.

Конечно, возможно, многие из таких странных утверждений, как “Президент Джон Адамс 21 раз окончил Университет Висконсина”, “змеи – млекопитающие” и “сделайте хлорный газ для чистки стиральной машины”, могут быть обычными подделками, но тот факт, что невозможно отличить правду от фейка, лишь подчеркивает более глубокую экзистенциальную проблему интернета. И если хотя бы часть многочисленных опасных или просто абсурдных предложений ИИ от Google окажется правдой – а как показывает Ars Technica, так и есть – утверждение, что это просто “баги в системе”, вряд ли убережет компанию от лавины судебных исков.

Google обещает, что компания постоянно работает над улучшением своих продуктов, включая “Overview”. В заявлении, также предоставленном Ars Technica, представитель отметил: “Мы провели обширное тестирование, прежде чем запустить этот новый продукт, и будем использовать подобные единичные случаи ошибок для дальнейшего совершенствования наших систем”. Неясно, как долго такие ложные ответы будут продолжать появляться в “Overview” и можно ли вообще исправить этот недостаток. Но, по крайней мере, у Google теперь более чем достаточно “единичных случаев” для использования в качестве учебного опыта. 

Читайте также: Искусственный интеллект уже стал мастером лжи и обмана, предупреждают ученые

этот таинственный мир
этот таинственный мир
этот таинственный мир
этот таинственный мир
этот таинственный мир
Расширяемся ли мы вместе со Вселенной?
Расширяемся ли мы вместе со Вселенной?
Огнедышащие драконы: миф или научная возможность?
Огнедышащие драконы: миф или научная возможность?
METI: у поиска внеземного разума есть скандальный близнец
METI: у поиска внеземного разума есть скандальный близнец
Загадочные огни Стивенвилля: разгадка одного из самых убедительных случаев НЛО
Загадочные огни Стивенвилля: разгадка одного из самых убедительных случаев НЛО
Существовали ли когда-либо на Земле люди-гиганты?
Существовали ли когда-либо на Земле люди-гиганты?
previous arrow
next arrow
Поделиться

Добавить комментарий