Премия Рунета-2020
Россия
Москва
+24°
Boom metrics
Общество13 мая 2024 19:20

Риск на доверии: Какие подводные камни скрывает искусственный интеллект

В редакции «Комсомольской правды» прошел тематический круглый стол дискуссионного клуба «Ecumene»

Фото: Александр ШПАКОВСКИЙ. Перейти в Фотобанк КП

А помните, как все начиналось? Как лучшие системы искусственного интеллекта (ИИ) не могли классифицировать объекты на изображениях, не понимали языка, испытывали трудности с решением несложных математических задач. В общем, тогда человек смотрел на него снисходительно, как первоклассник на малыша ясельной группы детсада. Сегодня системы искусственного интеллекта уже старшеклассники и они превосходят человеческие возможности. И это еще не все.

- В 2023 году прогресс ускорился. Новые современные системы, такие как GPT-4, Gemini и Claude 3, впечатляюще мультимодальны: они могут генерировать беглый текст на десятках языков, обрабатывать аудио и даже объяснять мемы, - приводит примеры модератор мероприятия, программный директор Ecumene Сергей Рыбаков. - По мере совершенствования ИИ он все активнее проникает в нашу жизнь. Компании стремятся создавать продукты на основе искусственного интеллекта, и ИИ все больше используется широкой общественностью. Но нынешняя технология искусственного интеллекта все еще имеет серьезные проблемы. Он не может достоверно обрабатывать факты, выполнять сложные рассуждения или объяснять свои выводы.

Сергей Рыбаков

Сергей Рыбаков

Фото: Александр ШПАКОВСКИЙ. Перейти в Фотобанк КП

С ДВУХ СТОРОН

Необходимо отметить, что ИИ уже сейчас сталкивается с двумя взаимосвязанными будущими. Во-первых, технологии продолжают совершенствоваться и используются все шире, что имеет серьезные последствия для производительности и занятости. Это можно использовать как во благо, так и во зло. Во втором будущем внедрение искусственного интеллекта ограничено исключительно ограничениями самой технологии. Отчасти в этом, например, журналисты «Комсомольской правды» уже убедились.

- «Комсомолка» всегда была открыта инновациям, - сказала в приветственном слове главный редактор, генеральный директор Медиагруппа «Комсомольская Правда» Олеся Носова. – И мы активно экспериментируем с искусственным интеллектом. По счастью видим, что журналисты его пока превосходят. Недавно мы стали выпускать журнал для медиков «Хороший доктор», где врачи пишут для врачей. Мы со своей стороны помогаем по журналистской части. Темой первого номера как стал искусственный интеллект. И это был выбор врачей. Есть мнение, что ИИ успешен в некоторых моментах, таких как чтение рентгеновских снимков, флюорографии. С одной стороны, это супердиагностика. С другой, возникает множество проблем, требующих незамедлительных решений.

Олеся Носова

Олеся Носова

Фото: Александр ШПАКОВСКИЙ. Перейти в Фотобанк КП

И тем не менее, эксперты единодушны, что независимо от того, какое будущее станет реальностью, необходимо мониторить развитие ИИ, чтобы стимулировать потенциал его роста, например, финансируя университетские исследования и разработки, а также стимулируя частные инвестиции. Необходимо помнить о возникающих потенциальных недостатках, таких как влияние на занятость, проблемы конфиденциальности, дезинформация и права на интеллектуальную собственность.

БЕЗОПАСНОСТЬ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА – ПРОБЛЕМА ВСЕГО МИРА

О том, как правильно работать с устранением рисков в применении искусственного интеллекта, рассказал заместитель министра цифрового развития, связи и массовых коммуникаций РФ, президент Академии криптографии РФ Александр Шойтов. По словам спикера, безопасность ИИ – это сложная научная и нормативная проблема.

Александр Шойтов

Александр Шойтов

Фото: Александр ШПАКОВСКИЙ. Перейти в Фотобанк КП

- Когда в сфере информационной безопасности определяют риски, для начала определяется самая сложная модель, - подчеркнул Александр Шойтов. - Например, искусственный интеллект применяется для управления ядерным реактором, на котором обрабатывается гостайна, где есть внутренний нарушитель, и атаки на этот реактор осуществляет иностранные спецслужбы. В таких условиях надо риски описать. Когда мы опишем риски и опишем меры противодействия, дальше мы должны постепенно эти риски снижать и, каждый раз «вычеркивая» определенный риск, доходить до минимума. Это правильный подход. После этого прописываются модели угроз и модели нарушителей, потом требования. Это могут быть обязательные требования регуляторов по информационной безопасности, а могут быть требования для определенной сферы – добровольные стандарты.

Александр Шойтов рассказал, что в ближайшее время на базе Академии криптографии, Национального технологического центра цифровой криптографии и Института системы программирования будет создан Консорциум исследований информационной безопасности и искусственного интеллекта.

- Вопросы безопасности ИИ, от технологических рисков до нормативного регулирования, стоят во всем мире. И ООН, и США, и Евросоюз – все принимают соответствующие законы, - говорит эксперт. - Разделяют сферы использования искусственного интеллекта на те, где эту технологию нельзя применять – критические сферы с серьезными требованиями, и где можно слегка снизить требования. Но о безопасности искусственного интеллекта на всем жизненном цикле говорят сейчас все.

АТОМНЫЙ ДУАЛИЗМ

Научный руководитель Национального центра физики и математики, академик Российской академии наук Александр Сергеев отметил, какие последствия несёт внедрение искусственного интеллекта.

- Итог развития всех серьёзных технологий двойствен, - сказал он. - Грандиозный атомный проект имеет свой дуализм: когда было создано атомное оружие, было мобилизировано создание множества смежных технологий — произошёл существенный прогресс в ракетных, водородных технологиях, вычислительной технике, возникла атомная энергетика. Сегодня внедрение ИИ похоже по значению на наш атомный проект. Например, предиктивный ИИ позволяет развивать цифровые двойники не только для фиксации функционального устройства объектов, но и для предсказания процессов на основе обучения на тех данных, которые получил алгоритм. Сделать цифровой двойник атомной станции на основе предиктивного ИИ — очень важная задача атомной отрасли. Алгоритм сможет подсказывать оператору атомной станции, как будет вести себя станция в разных ситуациях, в том числе в критических.

Александр Сергеев

Александр Сергеев

Фото: Александр ШПАКОВСКИЙ. Перейти в Фотобанк КП

КАК ИИ БАНКИРА ОБМАНУЛ

По словам Сергеева, в Институте системного программирования под руководством академика Арутюна Аветисяна создан Исследовательский центр доверенного искусственного интеллекта — именно доверенный ИИ позволит нам сильнее опираться на ИИ при принятии решений.

- Если ИИ будет за нас принимать решения лучше, чем мы, и мы передадим ему все наши персональные данные для принятия решений — это станет грандиозным изменением в плане устройства нашего общества, - подытожил Александр Сергеев.

Директор Института системного программирования им. В.П. Иванникова академик РАН Арутюн Аветисян рассказал о развитии доверенного искусственного интеллекта в России и мире.

- Несколько лет назад был создан Центр доверенного искусственного интеллекта — уже в 2021 году в нашей стране было понимание, что это актуальная и важная задача, - напомнил эксперт. - И за последние полгода стало ясно всем, что нужно заниматься доверенными технологиями и без них внедрение ИИ остановится. 26 стран приняли декларацию Блетчли, соответствующие решения приняли правительства Великобритании, США и ряда других стран. Поэтому нужно сегодня зафиксировать «доверенность технологий» в особом документе, который определяет, что мы доверяем ИИ, — в рамках регуляторики ФСТЭК России или добровольной саморегуляции. Нормативные документы ФСТЭК предусматривают шесть уровней доверия, и на каждом уровне добавляются новые требования к программам. Например, в апреле этого года вышел новый ГОСТ по доверенному компилятору, который требует, чтобы для языков С++ при сборке бинарного кода программы компиляторы не добавляли уязвимостей. Выходят ГОСТы и по технологиям анализа программ для поиска уязвимостей. А в плане развития ИИ у нас в России подписали "Кодекс этики в сфере ИИ", к которому уже подключились разные страны и обязались удовлетворять самым лучшим стандартам создания этих технологий.

Арутюн Аветисян

Арутюн Аветисян

Фото: Александр ШПАКОВСКИЙ. Перейти в Фотобанк КП

По словам Аветисяна, кроме технологической составляющей, в сфере ИИ есть и большая гуманитарная составляющая, ведь технологии эти сегодня настолько мощные и дешёвые, что ими можно любого человека сбить с толку. Например, в феврале этого года в Гонконге банкира вызвали на встречу в формате ВКС с головным офисом, по итогу которой он перевёл 25 млн долларов мошенникам – видео было сгенерировано ИИ. Чтобы мы могли доверять технологиям, и они не подрывали устои нашего общества, мы должны создавать не только базовые технологии, но и правильные процессы, которые позволят применять ИИ-решения в разных отраслях экономики. И как раз в нашем Исследовательском центре доверенного ИИ мы начинаем через научных партнёров превращать наши базовые технологии в проверенные отраслевые решения без удорожания процесса производства.

- Мы живём в сложном мире, но мы развиваемся в тех трендах, что и вся мировая наука, — отметил академик РАН Арутюн Аветисян. - Мы не стремимся в ближайшие сроки создать технологии, как у NVIDIA, нам важнее — обеспечить безопасность данных с репозиторием доверенных решений, в которых аккумулируются знания учёных из дружественных стран. Всё будет хорошо, ведь мы — великая IT-держава, и к 2030 году это будет ясно и всем остальным.

КАДРОВАЯ ЗАМЕНА

О перспективах использования технологий искусственного интеллекта для решения кадровых и экономических проблем рассказал президент компании «Интерпроком» Леонид Алтухов.

- В нашей стране примерно 140-150 миллионов человек населения. Территория страны очень большая, людей катастрофически не хватает, чтобы получать экономический эффект. Эти вопросы поднимаются на уровне президента, - отметил спикер. - Одна из проблем – это отсутствие кадров на местах, отсутствие желания людей ехать в регионы и отсутствие там высокого уровня специалистов. Что с этим делать, многие не понимают. Например, лет 10 назад я был в Архангельской области, встречались с заместителем губернатора, который отвечает за социальные программы. Там построили шикарный медицинский центр, где можно лечить от чего угодно, но специалистов нет, никто не едет туда. Сейчас мы получаем возможность давать подсказку недостаточно профессиональным специалистам. У них будет советчик в виде искусственного интеллекта, на которого можно будет полагаться. Он не будет сам принимать решения, но будет помогать эти решения принимать. Например, мы для «Росэнергоатома» обеспечиваем систему технического обслуживания и ремонта станций.

Леонид Алтухов

Леонид Алтухов

Фото: Александр ШПАКОВСКИЙ. Перейти в Фотобанк КП

ЛАБОРАТОРИИ КАК СТАРТ

Председатель Набсовета Ассоциации лабораторий по развитию искусственного интеллекта, директор Института развития МИФИ Валерий Романюк рассказал, как развивалась организация, и как она работает сейчас.

- Ассоциация по развитию искусственного интеллекта создана в 2017 году, еще на старте глобальных изменений. На данный момент в нее входит 246 компаний. Начиналось ее развитие с создания лаборатории, - сказал эксперт. - Сейчас я вернулся в альма-матер – МИФИ. Мы создали сильный Центр по искусственному интеллекту, нашли дюжину университетов, которые занимаются развитием ИИ. Из лабораторий уже выросло много компаний малого и среднего бизнеса, это компании со своими бизнес-интересами, которые надо отстаивать. Если Альянс в сфере искусственного интеллекта занимается интересами крупных компаний, то мы представляем весь остальной рынок. Работаем в кооперации с кластерами, в первую очередь с Академией наук, поскольку многие компании ассоциации выросли из вузовской и академической науки.

Валерий Романюк

Валерий Романюк

Фото: Александр ШПАКОВСКИЙ. Перейти в Фотобанк КП

Валерий Романюк также отметил важность решения проблем доверенного искусственного интеллекта в атомной отрасли, т.к. это наиболее сложная система, данные под такую задачу должны быть доверенными.

ЭТИКА КАК ТОЧКА ОПОРЫ

О международном регулировании технологий искусственного интеллекта рассказала директор Центра искусственного интеллекта МГИМО, научный руководитель магистратуры «Искусственный интеллект» в МГИМО Анна Абрамова.

- Практика показала, что за последние 10 лет для регулирования искусственного интеллекта предлагали разные подходы, - напомнила эксперт. - Существовало более 100 различных уровней соглашений между университетами, компаниями, транснациональными компаниями. Нужно было искать общий знаменатель. Этим общим знаменателем стала этика. В ноябре 2021 года была принята рекомендация ЮНЕСКО по этике в сфере искусственного интеллекта. Она была принята всеми странами ООН. Сейчас идет активная институциональная работа. Россия в эту работу тоже включена, в том числе у нас есть Российский национальный кодекс этики в сфере искусственного интеллекта. На сегодняшний день у нас порядка 400 подписантов, и функционируют уже пять рабочих групп. Документ стал не просто декларацией, он наполняется субстантивной активной работой.

Анна Абрамова

Анна Абрамова

Фото: Александр ШПАКОВСКИЙ. Перейти в Фотобанк КП

По словам Анны Абрамовой, вторым этапом стало решение Генерального секретаря ООН о том, что будет представлен Мировой глобальный цифровой договор, в который внесен отдельный раздел по искусственному интеллекту. Под эту работу была создана группа, получившая название Консультационного органа при Генеральном секретаре по искусственному интеллекту.

- В декабре 2023 года мы, как группа, выпустили промежуточный доклад, где в рамках своего мандата, а мандат у нас был очень непростой: выдать рекомендацию по созданию международной организации по искусственному интеллекту, - продолжила спикер. - Изначально было предложение создавать ее по образу и подобию МАГАТЭ. Понятно, что это не самый рабочий пример для тематики, связанной с искусственным интеллектом. В рамках доклада стояла задача рассмотреть все возможные варианты по функционалу организации и принципам, которые могут быть в нее заложены. Мы представили доклад, и сейчас по всему миру идут консультации, в том числе и в России. Мы будем рады комментариям, пожеланиям по тексту, предложениям по тому, как должна выстроиться эта глобальная система регулирования. Собираем эти данные в Центре искусственного интеллекта МГИМО.

И третий блок – это глобальный фонд, который по примеру других глобальных фондов, существующих в сфере здравоохранения, в области экологии, решает проблемы развивающихся стран. Цифровое неравенство, про которое много говорят, только нарастает. Есть определенное движение к тому, чтобы мир был устроен, скажем так, более справедливым образом.

ЭТО ЧТО-ТО НОВЕНЬКОЕ!

О нейроморфных технологиях, которые развиваются ныне в рамках НЦФМ, рассказал сопредседатель научных направлений Национального центра физики и математики, академик РАН Игорь Каляев.

- Нейроморфные технологии – это технологии, которые основываются на принципах обработки информации, присущих человеческому мозгу, - пояснил Игорь Каляев. - В рамках научной программы НЦФМ нами развивается проект создания интеллектуальных нейроморфных и нейрогибридных системы на основе новой электронной компонентной базы. Он базируется на новой парадигме в электронике, с развитием которой связывается прорыв в аппаратной реализации нейросетевых алгоритмов и мозгоподобных информационно-вычислительных систем, основанных на использовании мемристоров, т.е. резистора с памятью. Такие устройства обеспечивают возможности создания совершенно новых нейроморфных вычислительных систем, приближающихся по своим возможностям к человеческому мозгу.

Игорь Каляев

Игорь Каляев

Фото: Александр ШПАКОВСКИЙ. Перейти в Фотобанк КП

Мемристор – это пассивный элемент, такой же как резистор, но в отличии от обычного резистора, сопротивление которого постоянно, сопротивление мемристора может изменяться в зависимости от прошедшего через него электрического заряда. Т.е. мемристор запоминает количество прошедшего через него заряда и сохраняет эту информацию в виде своего сопротивления. Такие свойства мемристора открывают большие перспективы реализации на его основе искусственных нейронных сетей. Действительно, поведение мемристора очень напоминает поведение синапса биологического нейрона – чем интенсивнее входной сигнал, тем выше пропускная способность синапса.

По утверждению эксперт, разрабатываемая технология станет основой для создания энергоэффективного и масштабируемого аппаратного обеспечения для реализации как алгоритмов машинного обучения, так и новых нейросетевых алгоритмов на основе импульсных нейронных сетей. Это позволит в среднесрочной перспективе перейти к созданию опытных образцов, в последующем – и к серийному выпуску специализированных аппаратных средств на базе архитектуры и принципов функционирования биологических нейронных сетей, обеспечивающих достижение качественно новых характеристик систем принятия решений и управления сложными объектами критической инфраструктуры.

ВНИМАНИЕ!

27 мая 2024 года в Москве пройдет II Форум Технологии доверенного искусственного интеллекта участие, в работе которого примут представители профильных государственных ведомств, ведущие исследователи в области технологий ИИ и машинного обучения, криптографии и информационной безопасности, а также специалисты ведущих технологических компаний.