Искусственный интеллект не представляет экзистенциальную угрозу для человечества

Сегодня мы сталкиваемся с искусственным интеллектом (ИИ) каждый день. 

Например, когда вы ищете что-то в Интернете, то лучшие результаты, которые вы видите, определяются как раз именно им.

Любые  рекомендации, которые  вы получите на своих любимых торговых или потоковых веб-сайтах, также будут основаны на алгоритме искусственного интеллекта. Эти алгоритмы используют историю вашего браузера, чтобы анализировать и находить то, что может вас заинтересовать.

Поскольку целевые рекомендации не особенно интересны и скучны, то научная фантастика предпочитает изображать ИИ как сверхразумных роботов, которые обрекают человечество на вымирание. Некоторые ученые считают, что этот сценарий однажды может стать реальностью. Известные деятели, в том числе покойный Стивен Хокинг,  выражали опасения по поводу того, что будущий ИИ станет угрозой человечеству.

Среди экспертов в этой области пока панических настроений нет и большинство из них считает, что если угроза и появится, то не угроза существования человечества как вида.

Насколько мы близки к созданию ИИ, который умнее нас?

Существующий в настоящее время ИИ называется “узким” или “слабым”. Он широко используется для многих прикладных направлений, таких как распознавание лиц, беспилотные автомобили или тех же рекомендаций в Интернете. Он определяется как “узкий”, потому что эти интеллектуальные системы могут обучаться и выполнять только очень специфические задачи.

Да, зачастую они на самом деле выполняют свои задачи лучше, чем люди. Вспомните известный компьютер Deep Blue. Он был первым ИИ, победившим чемпиона мира по шахматам в 1997 году. Однако они не могут применить свои знания ни к чему другому, кроме очень конкретной задачи (Deep Blue может играть только в шахматы).

Но есть другой тип искусственного интеллекта. Он называется “Общий искусственный интеллект” (AGI) и определяется как ИИ, имитирующий человеческий интеллект, включая способность думать и применять интеллект для решения множества различных проблем. Некоторые люди считают, что повсеместное распространение AGI неизбежно и это будет происходить в ближайшее время в течение следующих нескольких лет.

Мэтью О’Брайен, инженер-робототехник из Технологического института Джорджии, не согласен с такими утверждениями: “Долгожданная цель создания AGI пока что не маячит даже на горизонте. Мы просто не знаем, как создать универсальный адаптируемый интеллект, и для достижения этой цели необходим гораздо больший прогресс технологий, чем есть сейчас”.

Как будущий AGI может угрожать человечеству?

Пока неясно, когда и возникнет ли вообще этот AGI. Можем ли мы предсказать, какую угрозу он может представлять для нас? AGI учится на опыте и данных, а не на том, что ему прямо говорят, что делать. Это означает, что, столкнувшись с новой ситуацией, которую он раньше не видел, мы не сможем полностью предсказать, как он на нее отреагирует и какое примет решение.

Доктор Роман Ямпольский, специалист по информатике из Университета Луисвилля, предупреждает, что “человеческий контроль над Искусственным интеллектом невозможен в принципе”, поскольку ИИ не может быть одновременно и автономным и подконтрольным. А значит, неспособность человека управлять созданными им сверхразумными системами может иметь действительно катастрофические последствия.

Но Инсю Ван, профессор кафедры программного обеспечения и наук о мозге из Университета Калгари, не согласен с этим, говоря, что “профессионально разработанные системы и продукты искусственного интеллекта надежно ограничены фундаментальным уровнем операционных систем для защиты интересов и благополучия пользователей, которые не могут быть доступны или изменены со стороны самой интеллектуальный машины”.

Д-р О’Брайен добавляет: “Как и в случае с другими инженерно-техническими системами, все, что может иметь потенциально опасные последствия, будет тщательно проверено и подвергнуто множественным избыточным проверкам безопасности”.

Может ли ИИ, который мы используем сегодня, стать угрозой?

Многие эксперты согласились с тем, что ИИ может быть угрозой в руках людей с плохими намерениями. Доктор Джордж Монтанез, эксперт по искусственному интеллекту из колледжа Харви Мадда, подчеркнул, что “роботы и системы искусственного интеллекта вовсе не обязательно должны быть разумными, чтобы стать опасными. Но они могут быть эффективными инструментами в руках людей, которые хотят причинить вред другим. И такая угроза сегодня существует”.

Но даже без наличия злодея ИИ может доставить вам не смертельные, но уже неприятности. Например, расовые предубеждения были обнаружены в алгоритмах распределения медицинских услуг среди пациентов в США. Дело в том, что ИИ, который распределял услуги пользовался базой программного обеспечения для распознавания лиц, используемом правоохранительными органами и сделал вывод, что не все люди одинаково достойны той или иной услуги. Потому что согласно полицейской статистике правонарушителей среди темнокожего населения больше.

Поэтому такая предвзятость ИИ основывалась на данных, на которых он обучался. Другой пример произошел в 2016 году, когда было обнаружено, что окно чата на основе ИИ рассылает крайне оскорбительный и расистский контент. Выяснилось, что это связано с тем, что люди отправляли боту оскорбительные сообщения, на основе этих сообщений бот выработал свою стратегию общения с посетителями чата.

Вывод

Искусственный интеллект, который мы используем сегодня, исключительно полезен для множества различных задач. Это бесспорно. Но это не означает, что он всегда положительный – это инструмент, злонамеренное или неправильное использование которого может иметь негативные последствия.

А вот стать реальной угрозой существованию человечества пока у него нет никаких шансов.