Технологические лидеры призывают к полугодовой паузе в разработке передового ИИ

Более 1000 лидеров индустрии и экспертов призвали к 6-месячной паузе для оценки рисков ИИ для человечества.

На протяжении многих лет многие видные деятели технологической индустрии, включая Илона Маска и покойного профессора Стивена Хокинга, предупреждали нас об опасности, которую представляет собой искусственный интеллект, когда он сравняется или превзойдет интеллектуальные возможности своих создателей.

В последнее время мы стали свидетелями значительного скачка в сложности и возможностях искусственного интеллекта: такие системы, как ChatGPT, предлагают взгляд в будущее, в котором многие человеческие роли станут совершенно ненужными.

Теперь международная группа основателей ИИ, лидеров индустрии и специалистов написала открытое письмо с требованием остановить разработку таких передовых систем на шесть месяцев, чтобы можно было провести дополнительную работу по оценке рисков, которые такие платформы представляют для человечества.

ИИ

Среди подписавших письмо — Илон Маск и соучредитель Apple Стив Возняк, а также некоторые из тех, кто работал над такими системами ИИ, как ChatGPT и DeepMind.

«Мы призываем все лаборатории ИИ немедленно приостановить как минимум на 6 месяцев обучение систем ИИ, более мощных, чем GPT-4», — говорится в письме. — «Эта пауза должна быть публичной и проверяемой, и включать всех ключевых участников. Если такая пауза не может быть введена быстро, правительства должны вмешаться и ввести мораторий. Лаборатории ИИ и независимые эксперты должны использовать эту паузу для совместной разработки и внедрения набора общих протоколов безопасности для проектирования и разработки передового ИИ, которые будут строго проверяться и контролироваться независимыми внешними экспертами».

Эти протоколы должны гарантировать, что системы, придерживающиеся их, безопасны вне всяких разумных сомнений. Это не означает паузу в развитии ИИ в целом, а лишь отступление от опасной гонки за все более крупными непредсказуемыми моделями «черного ящика» с эмерджентными возможностями.

Читайте также: Мы не сможем контролировать сверхразумный искусственный интеллект

Назад

Сообщение отправлено

Внимание!
Внимание!

Поделиться

Добавить комментарий

Этот сайт использует Akismet для борьбы со спамом. Узнайте, как обрабатываются ваши данные комментариев.

Вы не можете скопировать содержимое этой страницы