Премия Рунета-2020
Россия
Москва
+9°
Boom metrics
Экономика1 сентября 2021 12:30

ИИ в страховом бизнесе: применять, страховать, и страховаться

С этой статьи ПАО «САК «ЭНЕРГОГАРАНТ» начинает цикл публикаций, посвященных возможностям, угрозам, вызовам и рискам новейших технологий
Фото ПАО «САК «ЭНЕРГОГАРАНТ».

Фото ПАО «САК «ЭНЕРГОГАРАНТ».

И начнем мы обсуждение с наиболее часто обсуждаемой технологии искусственного интеллекта (далее ИИ). В вышедшей в 2017 году книге президента Всемирного экономического форума Клауса Шваба «Технологии четвертой промышленной революции» ИИ отводится особое место как основному связующему звену между существующими автономными роботизированными устройствами и человеческим обществом.

И действительно, ИИ, уже став центральным звеном цифровой экономики, активно приступает к преобразованию мира физического. И в значительной мере способствует этому повсеместному внедрению ИИ в нашу повседневную жизнь пандемия КОВИД-19. Мы уже не удивляемся тому, что ИИ помогает нам совершать покупки по интернету, подбирает нам музыку и друзей, помогает нам преодолевать языковые барьеры, инвестирует наши сбережения, следит за дорожным движением, ставит нам диагнозы и следит за правопорядком.

Однако, как и любая другая прорывная технология, вместе с большими возможностями она несет в себе и риски. В любом случае, ретроспективный анализ развития предыдущих прорывных технологий в истории человечества (например, открытие радиоактивности и создание взрывных устройств, использующих цепную ядерную реакцию) наглядно показывает, что развитие средств защиты и безопасности применительно к ней идет со значительным запозданием, что неизбежно приводит к инцидентам, катастрофам, социальным потрясениям, огромному материальному ущербу и большому количеству человеческих жертв [1].

И здесь мы считаем важным отметить, что большая задача по формированию повестки дня безопасного и устойчивого развития технологий искусственного интеллекта стоит перед представителями страхового сообщества и профессионалами риск-менеджмента.

Сегодня страховщики, вслед за банкирами, начали активно применять передовые достижения ИИ в своей повседневной деятельности: в цифровизации аналоговых баз данных, внедрении биометрических технологий в фронт-офисах, совершенствовании служб по работе с клиентами, создании персонифицированных страховых продуктов, оптимизации затрат по трудоемким и рутинным операциям.

Однако сегодня более важным аспектом является объединение усилий ведущих представителей страхового рынка для превентивного анализа грядущих угроз и рисков и создания страховых продуктов, способных адекватно защитить государство, бизнес и население от негативных, побочных эффектов прогресса в сфере ИИ.

На сегодняшний день таких рисков накопилось уже достаточно. И в первую очередь речь идет о киберрисках. В то время, пока ученые, юристы и политики пытаются вывести универсальное определение искусственного интеллекта, злоумышленники активно используют самообучающиеся нейросети для разработки вредоносных программ и проведения кибератак на информационную инфраструктуру предприятий, корпораций и даже государственных органов. И массовый перевод работников «на удаленку» в значительной мере поспособствовал увеличению уязвимости цифровых платформ для хакерских атак. Также не брезгуют «вооруженные» новейшими достижениями ИИ хакеры и хищениями личных данных у частных лиц. Еще в «доковидном» 2019 году «барометр рисков» крупнейшей страховой компании Allianz рассчитал, что экономический ущерб от природных катаклизмов и стихийных бедствий за период 2008-2018 гг. составил $208 млрд, а убытки от хакерских атак только за 2018 г. – более $600 млрд [2]. При том, что ущерб от природных катастроф сегодня практически полностью покрывается «страховками», в части предложений страховых продуктов, защищающих от электронных и компьютерных преступлений, испытывается критический дефицит.

Спрос со стороны потенциальных страхователей на «страховку» непрерывно растет. Однако это не единственный аспект работы страховых компаний в обозначенной сфере. Другим важным, в среднесрочной перспективе, аспектом является разработка адекватных инструментов страхования ответственности разработчиков, владельцев и эксплуататоров технологий ИИ от претензий и исков пострадавших лиц. Например, в мае т.г. вице-мэр Москвы Анастасия Ракова сообщила прессе, что в 2020-2021 гг. во время пандемии Ковид 19 с использованием модуля постановки предварительного диагноза искусственного интеллекта только в Москве врачи поставили более полутора миллионов диагнозов. А что, если один или даже несколько из этих рекомендованных ИИ и утвержденных человеком-врачом диагнозов оказались неверными, и привели к негативным, или даже летальным, последствиям? [3]

за секунду до столкновения: погибшая в объективе видеорегистратора. Фото: TEMPE POLICE DEPARTMENT.

за секунду до столкновения: погибшая в объективе видеорегистратора. Фото: TEMPE POLICE DEPARTMENT.

Фото: оснащенный автопилотом внедорожник Вольво после столкновения Фото: US National Transportation Safety Board

Фото: оснащенный автопилотом внедорожник Вольво после столкновения Фото: US National Transportation Safety Board

В мире уже есть прецедент с гибелью человека под колесами машины, полностью управлявшейся автопилотом. [4] Так, в 2018 году в г.Тампе, США, в ходе испытаний корпорацией Uber беспилотного такси, управлявший автомобилем бортовой компьютер, совершил наезд на 49-летнюю Элейн Герцберг, слезшую с велосипеда и переходившую дорогу в неустановленном месте. Примечательно, что проводившей эксперимент корпорацией для «подстраховки» автопилота был нанят водитель, который должен был следить за дорожной обстановкой и оперативно вмешаться на случай возникновения нештатной ситуации. Однако в ходе расследования выяснилось, что во время инцидента водитель был занят просмотром на смартфоне шоу «голос». После проведения многочисленных экспертиз и долгих разбирательств суд признал виновным в инциденте находившегося в машине человека. Uber удалось избежать уголовной ответственности, однако совет безопасности на транспорте отметил, что прежде чем выводить управляемую искусственным интеллектом машину на дорогу, корпорация должна была должным образом просчитать возможные риски и организовать необходимый надзор за поездками. После вынесения вердикта суда и надзорного органа Uber свернула программу беспилотного такси.

А что будет, если в скором времени в России появятся пострадавшие от активно испытываемых нынче роботов водителей, роботов-хирургов, роботов-уборщиков etc.?

И как быть в том случае, если рекомендации советника ИИ приведут компанию или гражданина к большим убыткам? («Из-за того, что машина совершала маленькую ошибку на больших объемах, мы теряли миллиарды рублей», – признался Греф в 2019 году. Но, как впоследствии заверили общественность в пресс-службе Сбербанка - это была «всего лишь» недополученная прибыль. Однако в скором времени речь пойдет о прямых убытках. И тогда возникнет ключевой вопрос: кто виноват? А в случае со страховщиками - кому предъявлять регрессный иск? [5]

Данному рынку страховых услуг еще только предстоит сформироваться, но основные тенденции видны уже сейчас. И не спешите утверждать, уважаемые читатели, что всю ответственность за действия/бездействие ИИ будут нести его владельцы и создатели. В ряде «прогрессивных» стран, например, в Южной Корее, мировом лидере по части внедрения роботизированных комплексов с ИИ, с 2023 года вступает в силу законодательство, наделяющее ИИ правосубъектностью юридического лица. То есть, получив правовой статус «электронная личность», за ошибки ИИ будет отвечать сам ИИ? И как тогда наказывать ИИ, который, например, по решению суда будет признан виновным в причинении вреда человеку? Как суд будет определять случайно или предумышленно отдельно взятая цифровая личность совершила преступление перед человеком (при наихудшем сценарии развития событий –перед человечеством?). Как людям наказывать ИИ за предумышленные преступления? Заключать их в «цифровую тюрьму», которую еще предстоит изобрести, дабы изолировать опасных «электронных преступников» от общения с себе подобными? Или вообще отключить его от источника питания? А что, если группа прогрессивных правозащитников-людей начнет общественную кампанию по защите прав ИИ и введению моратория на смертную казнь для «цифровых субъектов»? И перечисленные нами вопросы - не сюжеты для научно-фантастических сериалов, а морально-этические дилеммы ближайшего будущего.

Однако, в связи с взрывным развитием и распространением в мире ИИ, а также в связи с тем, что к возможностям данного «инструмента» все чаще и чаще обращаются лица с «заведомо преступными намерениями», в мире появились более серьезные угрозы, небывалые в истории цивилизации. И связаны они с дипфейком – технологиями, искажающими реальность.

Справочно: Дипфейки (от англ. deepfakes) — синтезированное с помощью искусственного интеллекта и нейросетей видеоизображение, в результате чего получается поддельное видео, внешне неотличимое от настоящего. Такими же методами можно синтезировать голос человека. Уже сегодня подделки дипфейков настолько хороши, что ни одна экспертиза в мире пока не может дать гарантию, что это не правда.

Уже сегодня жертвой «дипфейка» может стать не только «селебрити», но и любой добропорядочный гражданин, имевший неосторожность разместить на «просторах всемирной сети» фото и видео со своим изображением. И чем больше цифровых данных на конкретно взятую персону будет доступно злоумышленникам, тем более достоверным будет «дипфейковый» файл.

Было бы неверно утверждать, что проблеме создания специальных программ - «противоядия против дипфейков» - не уделяется должного внимания со стороны правительств, корпораций и частных лиц. Некоторые страны уже отреагировали на грядущие информационные угрозы. Например, в Китае уже приняли закон, запрещающий с 1 января 2020 года публиковать фейковые новости и вводящие в заблуждение «дипфейковые» видео, созданные с помощью искусственного интеллекта. За публикацию вводящих в заблуждение роликов предусмотрена уголовная ответственность [6]. Россия также намерена системно вкладываться в технологии распознания дипфейков. На днях правительственная комиссия утвердила дорожную карту развития новых интернет-технологий, подготовленную Минцифры РФ, в которой к 2024 году точность отечественных решений по выявлению дипфейков — то есть контента, сгенерированного с помощью технологий, но выдаваемого за реальный, а также инфоповодов, распространяемых ботами, должна достичь 70%. [7]

Однако, к сожалению, как мы уже упоминали ранее, средства безопасности и защиты человека от достижений технического прогресса всегда сильно запаздывают в погоне за технологическим прогрессом. И поэтому в настоящее время скорость распространения заведомо недостоверной информации на порядок выше, чем оперативность реагирования на нее в виде проведения проверки, экспертизы и при необходимости создания соответствующего опровержения (с учетом того, что алгоритмы экспертизы дипфейков ещё предстоит разработать и внедрить). И уже сейчас, пока вы читаете эти строки, неуправляемое распространение недостоверной и непроверяемой информации начинает подрывать сами фундаментальные основы существования общества: взаимное доверие, доверие к государственным институтам, репутацию и авторитеты, презумпцию невиновности etc [8].

Но самой большой опасностью, по мнению профессионалов информационной безопасности, являются дипфейки, которые будут использованы при ведении грядущих информационных войн. Так, профессор Калифорнийского университета в Лос-Анджелесе Джон Вильясенор утверждает, что «технология deepfake станет мощнейшим инструментом в руках тех, кто захочет дезинформировать массы и напрямую влиять на политический процесс». В свою очередь, американские военные считают, что самой перспективной разработкой являются редактирование и вбросы противникам поддельных спутниковых фото и видео, которые смогут быстро дезориентировать потенциального врага.

В интернете уже не раз появлялись анонимные видеоролики, на которых руководители двух ядерных супердержав: президент США Дональд Трамп и президент России Владимир Путин сообщают о планах глобальных вооруженных нападений. К счастью, из-за очевидно низкого качества изображений, большинство просмотревших данные «фейки» зрителей не посчитали их сигналом к началу третьей мировой войны.

Время до полуночи на часах Судного дня за всю историю существования проекта / Global News Archive. Фото: скриншот с сайта npr.org Eva Hambach/AFP via Getty Images

Время до полуночи на часах Судного дня за всю историю существования проекта / Global News Archive. Фото: скриншот с сайта npr.org Eva Hambach/AFP via Getty Images

Однако, согласно заключению экспертной комиссии по переводу «Часов Судного дня», в составе которой присутствует аж 18 Нобелевских лауреатов со всего мира, сегодня мировые лидеры все менее способны противостоять все более вероятным угрозам ядерной войны, в том числе из-за нарастающих информационных войн в киберпространстве, роста числа фейковых новостей и спланированных кампаний по дезинформации в интернете. 23 января 2020 года «Часы» были передвинуты в самое близкое к полуночи положение за всю свою 74-летнюю историю. До момента, когда часы пробьют «полночь», символизирующую собой уничтожение жизни на планете, осталось всего сто секунд.

Справочно: «Часы судного дня» (англ. Doomsday Clock– проект, начатый в 1947 году в Чикаго учеными, создавшими первый в мире атомный реактор и атомную бомбу).

«Наша близость к катастрофе сейчас выражается в секундах — не в часах и даже не в минутах…Мы сейчас сталкиваемся с настоящей чрезвычайной ситуацией — абсолютно неприемлемым состоянием дел в мире, которое не оставляет возможности для ошибок или задержек [с исправлением положения]» [9], обобщил вердикт ученых исполнительный директор издания Bulletin of the Atomic Scientists Рэйчел Бронсон.

Сто секунд до конца света - это печальный антирекорд нашего времени. Нам всем срочно нужен глобальный план по противостоянию угрозам и рискам ИИ. Ведь появление искусственного интеллекта не должно способствовать исчезновению интеллекта естественного. И самое главное - Человек не должен ни на мгновение терять контроль за работой созданных им технологий.

В заключение: ЭНЕРГОГАРАНТ в настоящее время не только активно использует ИИ в своей повседневной работе, но и инвестирует в разработки резидентов Иннополиса по безопасному развитию данного направления. Зная все (и даже больше) о рисках современного мира, неоднократно становясь объектом фейковых новостей, защищая информацию своих клиентов, в Компании как нигде понимают, что единственный правильный путь устойчивого развития в эпоху развития ИИ тот, который мы пройдем, формируя безопасную техносферу и риск-культуру.

Авторы: А.С.Давыденко, д.э.н., генеральный директор ПАО «САК «ЭНЕРГОГАРАНТ»

Д.В.Мун, к.э.н., Русское общество управления рисками (Русриск)

В.В.Попета к.т.н., почетный энергетик РФ, основатель международного профессионального сообщества «www.Risk.today».

1] Мун, Д.В., Попета В.В. Смолков П.Е. «От «Титаника» до «Зимней вишни» - Алгоритмы грядущих катастроф» 3-е изд., доп. и перераб. – Москва ; Берлин : Директ-Медиа, 2018. – 352 с. ISBN 978-5-4475-9669-9

[2] https://www.allianz.com/en/press/news/studies/190115_allianz-risk-barometer-2019.html

[3] https://www.mos.ru/mayor/themes/18299/7380050/

[4] Источник https://www.bbc.com/russian/news-54166083

[5] Источник https://www.vedomosti.ru/finance/news/2019/02/26/795134-gref?fbclid=IwAR1juIvjplWAKrfDBqqbwOZVIQTk0fuKildkmS5mk5uqfga4r07NKURknhU

[6] https://www.scmp.com/tech/apps-social/article/3039978/china-issues-new-rules-clamp-down-deepfake-technologies-used

[7] Источник https://www.rbc.ru/ins/society/28/07/2021/6100df139a7947edb8773b2a?from=from_main_2

[8] Д.В.Мун, В.В.Попета «Развитие и распространение технологий «deepfake»: угрозы, риски и вызовы для глобального информационного общества», статья в журнале «Информация и инновации» №1, 2020 г.

[9] https://www.npr.org/2020/01/23/799047659/the-end-may-be-nearer-doomsday-clock-moves-within-100-seconds-of-midnight