Технологические лидеры призывают к полугодовой паузе в разработке передового ИИ

Более 1000 лидеров индустрии и экспертов призвали к 6-месячной паузе для оценки рисков ИИ для человечества.

На протяжении многих лет многие видные деятели технологической индустрии, включая Илона Маска и покойного профессора Стивена Хокинга, предупреждали нас об опасности, которую представляет собой искусственный интеллект, когда он сравняется или превзойдет интеллектуальные возможности своих создателей.

В последнее время мы стали свидетелями значительного скачка в сложности и возможностях искусственного интеллекта: такие системы, как ChatGPT, предлагают взгляд в будущее, в котором многие человеческие роли станут совершенно ненужными.

Теперь международная группа основателей ИИ, лидеров индустрии и специалистов написала открытое письмо с требованием остановить разработку таких передовых систем на шесть месяцев, чтобы можно было провести дополнительную работу по оценке рисков, которые такие платформы представляют для человечества.

ИИ

Среди подписавших письмо — Илон Маск и соучредитель Apple Стив Возняк, а также некоторые из тех, кто работал над такими системами ИИ, как ChatGPT и DeepMind.

«Мы призываем все лаборатории ИИ немедленно приостановить как минимум на 6 месяцев обучение систем ИИ, более мощных, чем GPT-4», — говорится в письме. — «Эта пауза должна быть публичной и проверяемой, и включать всех ключевых участников. Если такая пауза не может быть введена быстро, правительства должны вмешаться и ввести мораторий. Лаборатории ИИ и независимые эксперты должны использовать эту паузу для совместной разработки и внедрения набора общих протоколов безопасности для проектирования и разработки передового ИИ, которые будут строго проверяться и контролироваться независимыми внешними экспертами».

Эти протоколы должны гарантировать, что системы, придерживающиеся их, безопасны вне всяких разумных сомнений. Это не означает паузу в развитии ИИ в целом, а лишь отступление от опасной гонки за все более крупными непредсказуемыми моделями «черного ящика» с эмерджентными возможностями.

Читайте также: Мы не сможем контролировать сверхразумный искусственный интеллект

← Назад

Спасибо за ответ! ✨

Поделиться
яндекс

Добавить комментарий

Этот сайт использует Akismet для борьбы со спамом. Узнайте, как обрабатываются ваши данные комментариев.