Технологические лидеры призывают к полугодовой паузе в разработке передового ИИ

Более 1000 лидеров индустрии и экспертов призвали к 6-месячной паузе для оценки рисков ИИ для человечества.

На протяжении многих лет многие видные деятели технологической индустрии, включая Илона Маска и покойного профессора Стивена Хокинга, предупреждали нас об опасности, которую представляет собой искусственный интеллект, когда он сравняется или превзойдет интеллектуальные возможности своих создателей.

В последнее время мы стали свидетелями значительного скачка в сложности и возможностях искусственного интеллекта: такие системы, как ChatGPT, предлагают взгляд в будущее, в котором многие человеческие роли станут совершенно ненужными.

Теперь международная группа основателей ИИ, лидеров индустрии и специалистов написала открытое письмо с требованием остановить разработку таких передовых систем на шесть месяцев, чтобы можно было провести дополнительную работу по оценке рисков, которые такие платформы представляют для человечества.

ИИ

Среди подписавших письмо – Илон Маск и соучредитель Apple Стив Возняк, а также некоторые из тех, кто работал над такими системами ИИ, как ChatGPT и DeepMind.

“Мы призываем все лаборатории ИИ немедленно приостановить как минимум на 6 месяцев обучение систем ИИ, более мощных, чем GPT-4”, – говорится в письме. – “Эта пауза должна быть публичной и проверяемой, и включать всех ключевых участников. Если такая пауза не может быть введена быстро, правительства должны вмешаться и ввести мораторий. Лаборатории ИИ и независимые эксперты должны использовать эту паузу для совместной разработки и внедрения набора общих протоколов безопасности для проектирования и разработки передового ИИ, которые будут строго проверяться и контролироваться независимыми внешними экспертами”.

Эти протоколы должны гарантировать, что системы, придерживающиеся их, безопасны вне всяких разумных сомнений. Это не означает паузу в развитии ИИ в целом, а лишь отступление от опасной гонки за все более крупными непредсказуемыми моделями “черного ящика” с эмерджентными возможностями.

Читайте также: Мы не сможем контролировать сверхразумный искусственный интеллект

Поделиться

Добавить комментарий