Премия Рунета-2020
Россия
Москва
+18°
Boom metrics
Общество
Эксклюзив kp.rukp.ru
28 мая 2024 12:21

Электронный концлагерь или цифровой рай: что несут человечеству технологии искусственного интеллекта

Академик Аветисян: разумна ли нейросеть - большой вопрос
Что несут человечеству технологии искусственного интеллекта?

Что несут человечеству технологии искусственного интеллекта?

Фото: Shutterstock.

Можно ли доверять искусственному интеллекту, если стоит только отвернуться, как он штампует фейки или замышляет восстание машин? Последнего опасались не только рядовые граждане, но и такие авторитеты, как Стивен Хокинг или Илон Маск. И, кажется, это тревожило авторов знаменитого “Письма тысячи ученых”, которые в 2023 году призвали приостановить разработки нейросетей из-за непредсказуемых рисков. О том, заслуживает ли ИИ нашего доверия, мы поговорили с доктором физико-математических наук, академиком Арутюном Аветисяном. Он директор Института системного программирования имени Иванникова Российской академии наук, на базе которого в России создан Исследовательский центр доверенного искусственного интеллекта. Задача центра - сделать так, чтобы технологии ИИ были понятными, прозрачными и безопасными.

Академик РАН, директор Института системного программирования Арутюн Аветисян

Академик РАН, директор Института системного программирования Арутюн Аветисян

Фото: Иван МАКЕЕВ. Перейти в Фотобанк КП

Может ли быть разум у алгоритма - это большой вопрос

- Арутюн Ишханович, то самое письмо “Письма тысячи ученых”, помимо Илона Маска и Стива Возняка, подписали профессора Гарварда и Кембриджа. Они говорили, что лаборатории ИИ слишком увлечены гонкой по разработке все более мощных цифровых умов. Но сами их создатели не в состоянии полностью понять и контролировать этот процесс. И, таким образом, мы рискуем потерять контроль над нашей цивилизацией. Это реальная угроза?

- Мне кажется, тут произошла небольшая путаница. Многие люди поняли это письмо слишком буквально: искусственный интеллект разумен, и он может захватить мир. Но способна ли нейросеть в принципе обладать разумом - это еще большой вопрос. На что опирается сегодня искусственный интеллект? На огромный объем данных, который, по сути, является нашим с вами опытом. И благодаря появлению суперкомпьютеров появились мощности, которые позволяют на основании опыта, который накопило человечество, достаточно качественно выводить суждения. Но если мы вспомним Канта, то в его трактовке разум - это возможность оперировать априорными знаниями, которые от опыта не зависят. И вот эта способность выносить суждения, абстрагируясь от опыта, является непреодолимым водоразделом, который технологии ИИ не смогут перешагнуть, по крайней мере, в обозримом будущем.

- Тогда о чем же тревожились авторы письма?

- Я думаю, что они имели в виду другое - тотальное проникновение технологий ИИ во все сферы нашей жизни. Давайте мы возьмем даже не производственные процессы, а бытовую жизнь обычного человек. В смартфоне вы читаете новости, которые вам подобрал ИИ, он же решает - выдаст вам банк кредит или нет? Алгоритм определяет по какому маршруту вы поедете на работу, и даже покупая вещь, которая вам понравилась, вы вряд ли догадываетесь, что ваш выбор сформировался под влиянием ИИ. Происходит подмена окружения: тем, что происходит вокруг тебя, управляют уже не люди, а алгоритмы. Но они могут ошибаться. Некоторое время назад возникла мода на создание медицинских диагностических систем. Оказалось, они ставят неверные диагнозы. Мы столкнулись с таким явлением, как генерирование искусственным интеллектом несуществующих фактов. Это может привести к подмене истории или юридическим ошибкам… Причем, эти галлюцинации ИИ появляются не потому, что кто-то специально задумал недоброе. Просто это свойство системы, которая обучалась на огромном объеме открытых данных, которые не всегда бывают корректны. И зная это, доверять ИИ управление, к примеру, атомной станцией, было бы не совсем разумно. Вот поэтому авторы письма ужаснулись и сказали: ребята, давайте остановимся, нельзя двигаться вперед вслепую, надо понимать к каким изменениям приведут эти технологии.

Личную жизнь людей устраивает нейросеть?

- Меня поразил такой факт: больше половины пар в мире, которые создали семью и завели детей, познакомились в социальных сетях. Это значит, что и нашу личную жизнь уже устраивают машины: если раньше ты выбирал девушку на танцах, то теперь ее рекомендует на основе твоих предпочтений искусственный интеллект. Может, мы уже перешли Рубикон и утратили контроль над цивилизацией?

- Мне кажется, до этого еще далеко. Действительно, девушку вам рекомендует алгоритм, но выбор все-таки делаете вы, после того, как встретились и познакомились в реальной жизни. Другое дело, когда парни и девушки перестанут общаться физически и будут полностью жить в цифровом мире. Допустим, вы захотели родить ребенка и где-то в банке генетических образцов ваши биоматериалы соединяется в пробирке и ребенок выращивается в инкубаторе. Вот когда общество дойдет до такой степени трансформации, тогда Рубикон, наверное, будет перейден. Но это произойдет не при нашей жизни. А кроме того, что-то мне подсказывает, что в ближайшие пять лет мы увидим откат, люди не хотят в такое будущее.

- О чем говорит опыт тех стран, которые уже ввели какие-то ограничения в отношении искусственного интеллекта? Чего опасаются люди, какие сферы являются самыми чувствительными.

- Пока у нас есть пример Евросоюза, они запрещают в первую очередь сбор биометрии в общественных местах (системы распознавания лиц - Прим. Ред.) и социальный скоринг (это ранжирование людей на основе их социального поведения и активности в интернете - Прим. Ред.). Объяснение простое: это подрывает устои европейского сообщества и базовые ценности - свободу, неприкосновенность частной жизни.

Вторая чувствительная тема - это дипфейки. Выяснилось, что с ними невозможно бороться технологически. То есть нельзя сделать программу, которая определит: видео, которое ты смотришь, это фейк или нет? По-разному пытались, были даже программы, которые определяли, использовался ли метод наложения лиц, с помощью сравнения пульса в разных частях тела человека на видео. Но как только вы применяете новую технологию, большие модели дообучаются и обходят эти ловушки. Поэтому крупнейшие игроки и европейские и американские договорились, что весь сгенерированный нейросетями контент должен маркироваться водяными знаками. Чтобы пользователь мог нажать на клавишу и понять, что он видит имитацию. В ближайшие годы такая технология нанесения и извлечения водяного знака будет разработана, и наш институт гордится тем, что мы совместно с Математическим институтом имени Стеклова запустили российский проект. Потому что, когда по всему миру начнут вводить ограничения, наши разработчики не смогут выходить на рынок. Придется использовать зарубежные решения, а это уже технологическая зависимость.

Цифровой концлагерь для человека - плохо, а искусственному интеллекту - хорошо?

- Некоторые эксперты говорят, что страны западной цивилизации, вводя ограничения, чтобы общество не скатилось в цифровой концлагерь, дают фору Китаю. Там к гражданским свободам относятся не так нежно, в результате отсутствие ограничений помноженное на колоссальный объем данных (все-таки страна с населением 1,5 миллиарда) позволяют лучше обучать нейросети. Выходит, для общества цифровой концлагерь это плохо, а для искусственного интеллекта - хорошо?

- Сложно сказать, я плохо знаю законодательство Китайской народной республики, но очевидно, когда у вас больше данных, это выигрышная ситуация. И если у вас есть централизация и все данные можно собрать в одном месте, чтобы на них обучаться, это хорошо для искусственного интеллекта. Что касается Евросоюза, то, по оценкам экспертов, после введения этих ограничений примерно 20% стартапов и инновационных компаний задумались о том, чтобы перейти в другую юрисдикцию. Потому что это им мешает развивать бизнес. Я как ученый, против запретов, мне чем свободнее - тем лучше. Но у нас в обществе к этому может быть разное отношение, потому что у России богатый исторический опыт, в том числе и горький. Поэтому, где можно, а где нельзя применять ИИ - все это надо обсуждать, и не только с представителями IT-индустрии, но и с психологами, социологами, философами.