Премия Рунета-2020
Россия
Москва
+9°
Boom metrics
Наука3 июня 2023 9:36

«Они будут думать о людях, как об отбросах»: в США дали тревожный прогноз о развитии искусственного интеллекта

Военный ИИ решил убить своего оператора, но это только начало, говорит экс-топ-менеджер Google
Обычно говорят, что страшилки про ИИ не так страшны, потому что у нейросетей нет своего сознания. Но у ее пользователей, военных, сознание есть, и это самое жуткое в этой истории

Обычно говорят, что страшилки про ИИ не так страшны, потому что у нейросетей нет своего сознания. Но у ее пользователей, военных, сознание есть, и это самое жуткое в этой истории

Фото: Shutterstock

ИИ будет создавать собственные машины для убийства, а сами нейросети воспримут человека «не более, чем отбросы». И все это случится не в далеком будущем, а в течение двух ближайших лет. Прежние проблемы, о которых так волнуется человечество, например, глобальное потепление, покажется детской игрушкой.

Все это – заявления бывшего исполнительного директора Google Мо Гаудет (Mo Gawdet), который, после выхода в отставку, переквалифицировался в блогера и активно дает интервью. «Хотите верьте, хотите нет», закончил он очередную серию апокалиптических пророчеств, видимо, чувствуя, что аудитория ему не очень поверила.

Правда, событие, которое недавно случилось в армии США, говорит о том, что Гаудет скорее прав. Инциденту около месяца, но огласку он получил лишь на днях.

Военные испытывали армию дронов, которая управляется нейросетью. Дроны были реальными, но вся ситуация – учебная. О чем ИИ, конечно, «не знал». За поражение цели нейросеть получала баллы, за промахи ее баллов лишали. Так учат компьютер. В какой-то момент оператор, человек, вмешался и отдал приказ не поражать одну из целей. ИИ понял, что за это его лишат баллов. Ведь цель осталась, простите за игру слов, целой. Что же сделал ИИ? Он принял решение убить оператора, человека, который помешал ему получить баллы. И «убил» его (ИИ думал, что в реальности, на самом деле – нет).

И что же сделали военные после этого инцидента? Они ввели в правила пункт, по которому за убийство оператора с машины снимаются баллы. Теперь машина точно не убьет оператора! – радуются военные.

Когда эта история разошлась по СМИ, ВВС США принялись все опровергать, но, мягко говоря, поздно хватились.

Теперь вернемся к предостережениям Мо Гаудет (а он, когда говорил все это, еще не знал именно об этом инциденте) и посмотрим, прав ли пророк из Google.

- Машина, не задумываясь, убивает человека, даже «своего» (потому что у нее нет «своих») – да;

- Машина рассматривает человека не как своего создателя, а как цель; любой, кто помешает – обречен – да.

То есть, выходит, Мо Гаудет все правильно сказал, и дело тут, конечно, в том, что военные НАТО принялись активно бряцать нейросетями, толком в них не разобравшись. Точно так же было с атомной бомбой: не понимали даже, что радиация опасна на долгие годы, «это просто очень мощная бомба».

Мо Гаудет живет на Западе и не дурак, чтобы полоскать военных – нет никаких сомнений, что Google сотрудничал с ними и сотрудничает. Зато Мо Гаудет поминает каких-то «террористов» и «экстремистов», которые воспользуются военным ИИ, ИИ с имитацией голоса, видео, картинки и так далее. Понятно, что никаких «сомалийских пиратов» из голливудских фильмов нет, и все это относится к военным НАТО – но их нельзя называть вслух.

Обычно говорят, что страшилки про ИИ не так страшны, потому что у нейросетей нет своего сознания, и, стало быть, она не додумается убивать людей. Но у ее пользователей, военных, сознание есть, и это самое жуткое в этой истории. Сам Мо Гаудет выступает за регулирование ИИ со стороны правительства (правительства США, конечно), но это мало что меняет, потому что ИИ уже контролируется правительством; заказчик военных нейросетей – конечно же, правительство США, и наковердякают они там ого-го что.

СЛУШАЙТЕ ТАКЖЕ

Искусственный интеллект на тропе войны: как сегодня применяют ИИ на поле боя (подробнее)