Многие в индустрии считают, что разработка сверхчеловеческого компьютерного интеллекта неизбежна.
Прослушать статью:
Концепция сингулярности – момента, когда машины станут умнее людей – обсуждается и дебатируется уже десятилетиями. Но по мере того, как развитие алгоритмов машинного обучения породило программное обеспечение, легко проходящее тест Тьюринга, вопрос стал более насущным. Так насколько же мы далеки от искусственного общего интеллекта (AGI) и каковы риски?
Современный искусственный интеллект (ИИ) основан на больших языковых моделях или LLM. Текстовые модели ИИ на самом деле не размышляют над ответом и не проводят исследования – они работают с вероятностями и статистикой. Используя обучающие данные, они вычисляют, какое слово (иногда какая буква) с наибольшей вероятностью должно следовать за предыдущим. Это может дать как очень разумные результаты, так и ошибочные и опасные, а иногда и уморительные ответы, которые человек никогда бы не дал. Ведь, как мы уже сказали, машина не мыслит.
Эти модели специализируются на конкретных задачах, требующих специфических обучающих данных, но в отрасли существует идея о том, что AGI не за горами. Эти алгоритмы будут выполнять не одну, а множество задач, и смогут делать их наравне с человеком. Хотя до искусственного сознания еще далеко, развитие AGI рассматривается как ступенька к нему. В некоторых отраслях утверждается, что до этого остались считанные годы.
“Кажется весьма вероятным, что к 2029-2030 году индивидуальный компьютер будет обладать вычислительной мощностью, примерно равной человеческому мозгу. Если прибавить к этому еще 10-15 лет, то индивидуальный компьютер уже будет обладать вычислительной мощностью, равной вычислительной мощности всего человеческого общества”, – сказал Бен Герцель, основатель SingularityNET, целью которой является создание “децентрализованного, демократического, инклюзивного и полезного искусственного интеллекта“, выступая на саммите Beneficial AGI Summit 2024.
Из этого убеждения сразу вытекают два вопроса. Первый вопрос: насколько верна эта оценка? Критики современного ИИ утверждают, что заявления о скором появлении искусственного общего интеллекта – лишь способ раздуть шумиху вокруг нынешних моделей ИИ и еще больше надуть пузырь ИИ-компаний перед неизбежным крахом. Недавно получивший Нобелевскую премию “отец-основатель ИИ” Джеффри Хинтон считает, что до появления общего искусственного интеллекта осталось менее 20 лет. А вот Йошуа Бенжио, разделивший премию Тьюринга с Хинтоном и Янном ЛеКуном в 2018 году, напротив, утверждает, что мы вообще не знаем, сколько времени потребуется, чтобы достичь этого.
Второй вопрос касается опасностей. Хинтон ушел из Google в прошлом году из-за беспокойства о возможных опасностях со стороны искусственного интеллекта. Кроме того, опрос показал, что треть исследователей ИИ считает, что искусственный интеллект может привести к катастрофическим последствиям. Тем не менее, мы не должны считать неизбежным будущее в стиле “Терминатора”, с машинами-убийцами, уничтожающих людей. Опасности могут быть гораздо более прозаическими.
Уже сейчас модели ИИ сталкиваются с обвинениями в том, что они обучаются на украденных произведениях искусства. Ранее в этом году OpenAI умоляла британский парламент разрешить использовать защищенные авторским правом работы (бесплатно), потому что без доступа к ним невозможно обучать LLM (и зарабатывать деньги). Существуют также экологические риски. Современные ИИ связаны с поразительно огромным использованием воды и “тревожным” углеродным следом. Более мощные ИИ потребуют больше ресурсов в мире с быстро меняющимся климатом.
Еще одна угроза – использование, но что более важно, злоупотребление возможностями ИИ для создания фальшивых материалов с целью распространения дезинформации. Создание поддельных изображений с пропагандистскими (или другими злонамеренными) целями стало проще простого. И хотя сейчас есть способы распознать сгенерированные фальшивые изображения, это будет становиться все труднее и труднее.
Правила и нормы в отношении искусственного интеллекта пока не получили широкого распространения, поэтому озабоченность сегодня очень важна. Тем не менее, есть исследования, которые утверждают, что нам не стоит слишком беспокоиться. Поскольку чем больше плохих результатов ИИ появляется в сети, тем больше их будут использовать для обучения новых моделей, которые в итоге будут создавать еще более худший материал и так далее. До тех пор, пока ИИ перестанет быть полезным.
Возможно, нам еще далеко до создания настоящего искусственного интеллекта. Но нам уже недолго осталось до создания искусственной глупости.
Читайте также: Создаст ли искусственный интеллект новые рабочие места или отправит нас на свалку истории, как лошадей?
Комментировать можно ниже в разделе “Добавить комментарий”.