Boom metrics
НовостиПолитика2 сентября 2019 6:27

В США назвали вероятную причину начала ядерной войны

Решения с высокой степенью ответственности не должны приниматься с участием ИИ

Наиболее реальную и серьезную опасность применения военными систем искусственного интеллекта представляет его использование для принятия решения о нанесении ядерного удара. Об этом рассказал бывший заместитель министра обороны США Роберт Уорк.

Системы искусственного интеллекта запускаются по определенным параметрам и показателям и в некоторых случаях могут расценить неопасные факторы как представляющие угрозу – это основная причина, по которой решения с высокой степенью ответственности не должны приниматься с участием ИИ.

Примером этого, по словам Урока, может стать российская система «Периметр» которая при определенном стечении обстоятельств может принять сейсмическую активность за ядерные взрывы, направив запрос в соответствующий штаб. Если вдруг система ИИ не получит ответа, она также может отдать команду на запуск межконтинентальных баллистических ракет, рассчитав, что это решение станет наиболее правильным.

«Представьте, что в системе ядерного командования и контроля есть прогностическая система ИИ.. . Это гораздо, гораздо, гораздо более тревожная перспектива, чем все то, что вы можете придумать в терминах конкретного оружия», - передает издание Breaking Defense опасения военного.

Искусственный интеллект, добавил Уорк, однозначно может принести пользу для военных, однако его использование должно быть строго ограниченно и не может иметь прямого участия в управлении ядерным оружием.

Однако, с российской системой управления ядерным оружием «Периметр» не все так просто, как могло показаться бывший заместителю министра обороны США. Сайт kp.ru рассказывал об особенностях "Периметра" и о том, почему систему нередко называют "Мертвой рукой".