Если искусственный интеллект связан с риском нашего вымирания, то необходимо уточнить, как это может произойти

интеллект

Снижение риска вымирания от искусственного интеллекта должно стать глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война

Служба помощи при расстройствах пищевого поведения закрыла свой чат-бот после того, как он начал вредные советы

чат-бот

Как выяснилось, замена кризисной службы помощи, управляемой людьми, на чат-бота с искусственным интеллектом прошла крайне, крайне неудачно. Кто бы мог подумать?

Как мы пропустили “ботнет”? Спросите у легенд голливудской фантастики

фантасти

Научно-фантастические фильмы отражают классический человеческий недостаток: в основном неправильное представление о будущем.

ChatGPT на Марсе: как искусственный интеллект может помочь ученым в изучении Красной планеты

ChatGPT

Нетрудно представить себе робота на поверхности Марса, соединенного с ChatGPT или аналогичной языковой моделью искусственного интеллекта. Этот смартбот может быть оснащен комплектом научных приборов.

Экс-исследователь безопасности OpenAI: вероятность апокалипсиса из-за ИИ составляет 20%

ИИ

“Если по какой-то причине, не дай бог, все эти ИИ системы будут пытаться нас убить, они точно нас убьют”.

Искусственный интеллект вскоре может создать новые религии, культы и Библии

искусственный интеллект

Искусственный интеллект может быстро поглотить всю человеческую культуру – все, что мы произвели за тысячи лет, переварить ее и начать извергать поток новых культурных артефактов.

Искусственный интеллект обрабатывает больше информации, чем человек – избавит ли это нас от повторения ошибок?

искусственный интеллект

Как отмечают умные люди, единственное, чему мы учимся у истории, это то, что мы редко чему-то у нее учимся.

Илон Маск создает новую компанию по развитию искусственного интеллекта

маск

Еще совсем недавно Илон Маск был активным противником AI даже подписал открытое письмо с призывом остановить развитие искусственного интеллекта на 6 месяцев, чтобы дать экспертам возможность изучить потенциальные риски и опасности этой технологии.