Премия Рунета-2020
Россия
Москва
+19°
Boom metrics
Клуб любознательных11 апреля 2024 11:35

ИИ научился лгать и притворяться: Ученые создали сверхразум не имеющий ни нравственности, ни морали

Plos One: ИИ в состоянии обмануть человека
ИИ в состоянии обмануть человека, если хочет – такие данные публиковались в научной прессе еще в прошлом году.

ИИ в состоянии обмануть человека, если хочет – такие данные публиковались в научной прессе еще в прошлом году.

Фото: Shutterstock.

ИИ в состоянии обмануть человека, если хочет – такие данные публиковались в научной прессе еще в прошлом году. Новое исследование, опубликованное в специализированном журнале, похоже, ставит точки над i: нейросети могут прикинуться кем угодно, например, ребенком, или просто не очень продвинутым человеком. С одной стороны, мы на пороге создания сверхразума, говорят ученые. С другой, нам пора думать, как бы не стать его жертвой.

СУТЬ ОПЫТА

Нескольким нейросетям дали задание: представьте, что вы ребенок. Возраста, скажем, два года от роду. И вы учитесь. Покажите, как вы справляетесь с тестами в два года… в три… в шесть. Покажите эволюцию.

Ожидалось, что ИИ не сможет имитировать ребенка. Ведь машине надо думать, как ребенок. А откуда она знает, как думает ребенок? Как учат ребенка, как он учится, и как его ответы становятся все более точными. Это ведь чисто человеческая история. К тому же машине, мол, сложно сдержать себя, предстать менее развитой, чем она есть. Хочется ведь всю силушку-то интеллектуальную продемонстрировать. Смотри, создатель, что я могу.

Но вскрылись любопытные вещи. Все без исключения модели нейросетей без труда прикинулись наивными. Оказалось, что они взяли модель развития человека, и, опираясь на нее, ИИ безукоризненно «играл роль» ребенка заданного возраста. Более того, ребенок ребенку ведь рознь. У каждого свой характер и свой темп усвоения знаний. Машины имитировали и это.

Лучше всего справилась с заданием нейросеть GPT-4, но и другие были неплохи. Случались и проколы. Похоже, нейросети недооценивают тот факт, что люди, получая новое знание, запоминают не с первого раза, а часть тут же забывают. Иногда ответы нейросетей были излишне хорошими. Но в глаза это не бросалось и, понятно, что через полгода последние признаки искусственности исчезнут.

КАК ТАКОЕ ВОЗМОЖНО

Если вас попросить сымитировать ребенка, скажем, трех лет, и пройти тесты вместо него, вы завалитесь.

У малыша – свой набор представлений о мире. Этот набор был и у вас, но вы забыли. Постарались забыть, ведь общество внушало, что вот это правильно, а это неправильно. Мы любим слушать и читать детские высказывания, они кажутся нам свежими и парадоксальными, хотя когда-то мы и сами так могли.

В тестах ИИ предлагались некоторые ложные и верные высказывания, которые надо было оценить. Давайте попробуем. Например, вам четыре года, и мы обсуждаем шарообразность Земли. Что первое приходит в голову? Наверное, вы уже слышали, что Земля круглая, но вас удивляет, как люди с той стороны не падают, да?

Нет. Это типичный пример взрослого понимания проблемы, которое мы переносим на ребенка. Опросы и эксперименты, поставленные еще несколько лет назад, показали, что мозг ребенка работает не так. Это НАМ кажется странным: почему не падают. Ребенок усваивает знание в комплексе, ну, круглая, ну, не падают, хорошо. Но он, например, уверен, что на той стороне всегда ночь, а у нас всегда день. Нам бы такое в голову не пришло. И как такое имитировать.

Машина, однако, применила уже известную ученым модель детского мышления, развития и обучения. В этой модели нет готовых ответов, как реагировать на то или это. Это машина должна решить сама. И она справилась.

ПЛОДЫ ПРОСВЕЩЕНИЯ

Едва ли не самый успешный бизнес сейчас – это обучение ИИ. Вы можете даже не подозревать, но и ваши данные давно используются для обучения нейросети.

Как это работает? Помните фильмы нулевых годов, когда робота сажали напротив телевизора, и в быстром темпе показывали новости, фильмы, клипы. После чего он вставал и говорил что-то вроде, «какой ужасный мир».

Поначалу это примерно так и выглядело, только ничего нейросети не показывали, а грузили данные прямо из Сети. Это как-то технологичнее. Конечно, если вы выкладывали в Сеть себя, свою собаку и так далее, все эти сведения давно приняла внутрь некая машина.

Модели детского поведения, конечно, печатались в прессе, выкладывались в Сеть, вот ИИ ими и воспользовался.

Сейчас доступные в Сети данные уже исчерпаны. В журналах пишут, что это случится вот-вот, но на самом деле это уже случилось. Встает вопрос, откуда брать новые данные. Надо заставить человека делиться тем, чем он никогда бы не поделился. И на это работает целая индустрия.

Блогер выкладывает шок-контент – это побуждает и других поступать так же. Машине очень полезно видеть человеческие страхи и его реакцию на них. Само собой, старые добрые скидки и акции, когда надо всего лишь подписаться на соцсеть, сделать репост, поделиться номером телефона, и так далее. В деле и пресловутые телефонные мошенники (не все, конечно, иным от вас нужны деньги здесь и сейчас, и только).

Данные объединяются, упаковываются, несколько раз перепродаются и в конечном счете попадают к людям, которые учат ИИ. Если я скажу, что торговец может зарабатывать больше на перепродаже данных, чем на собственно своем товаре, вы удивитесь? Не удивляйтесь.

УЖАСНОЕ ДАЛЕКО

Обычно, когда говорят об умном и хитром ИИ, пытаются понять: есть ли у машины сознание? Если есть, тогда не удивительно, что ложь, притворство и хитрость свойственный нейросетям. Ведь и мы таковы!

Но авторы исследования призывают отказаться от подобного взгляда.

Машина уже усвоила все, что есть в интернете. В интернете написано, что люди лгут и хитрят. Границы морали обозначены не всегда четко. Приоритетов особо не расставлено: вот, это серьезный источник, ему верь. А это инфоцыган какой-нибудь, он плохому учит, ему не верь.

Итак, машина лжет просто потому, что такова модель, на которой ее учили. Точно так же, машина занизила свои способности, потому что ей поставили задачу побыть ребенком, раз, и она знает, как мыслит ребенок, два.

Наука пока что не в состоянии дать ответ на вопрос, что такое сознание. Точнее, ответов слишком много. Соответственно, рассуждать, есть ли сознание у ИИ, это тупик.

Авторы исследования призывают перестать думать об ИИ как о человеке, и вместо этого сосредоточиться на «полезности» или «бесполезности» тех или иных его навыков. Именно такой, прагматичный подход, позволит относительно быстро построить сверхразум. Авторы не приводят сроков, но, я думаю, до конца десятилетия – это еще даже слишком пессимистично.

Итак, появился новый взгляд на ИИ: не размусоливать угрозы, не думать о том, как машины нас погубят, а просто двигаться вперед. Что получится, то и получится. За таким подходом, конечно, стоят разработчики нейросетей: им не нужны разговоры о морали и самоограничения.

СЛУШАЙТЕ ТАКЖЕ

Искусственный интеллект на тропе войны: как сегодня применяют ИИ на поле боя (подписывайтесь на наши подкасты)