Премия Рунета-2020
Россия
Москва
+19°
Boom metrics
Общество17 апреля 2023 16:05

«Ecumene-2023»: Опасен ли искусственный интеллект для человечества

В «Комсомольской правде» прошел круглый стол «Экология искусственного интеллекта»

Способность мыслить и принимать решения - основное свойство интеллекта. Это очевидный всем факт. А если мы говорим об искусственном интеллекте (ИИ)? В отношении него работает ли это правило? Эксперты уверены, сейчас мир находится на той стадии, когда мы пытаемся определить границу, с которой можно считать, что ИИ начинает мыслительный процесс, подобный человеческому, и ту грань, перешагнув которую он может принимать самостоятельные решения.

Что значит ИИ с точки зрения эволюционного процесса? Это очередной технологический переворот, который, как и предыдущие, таит в себе опасности и сложности. И важно понять, что же нужно сделать, что ИИ, развиваясь, не нарушал нашу среду существования. Пытливый читатель спросит – почему это важно? Пусть развивается, это же прогресс. Вопрос актуальный. Ответ на него кроется в самом принципе ИИ. С его помощью разработчики имитируют работу мозга. Если искать аналогии, то одна из них это воспитание. Ребенок – совсем молодой мозг. Родители растят его, используя свои знания, опыт, методы педагогики. Ребенок становится старше и радует своими успехами. Он даже начинает превосходить по некоторым параметрам воспитателей. И вот здесь возникает тревога – как бы он чего не натворил. Ведь тогда ситуация может выйти из-под контроля.

Сегодня проекты и предложения, разрабатываемые с использованием ИИ, могут положительно и отрицательно влиять на Цели устойчивого развития ООН до 2030 года. Необходимо продвигать положительное использование ИИ для реализации целей устойчивого развития и исследовать потенциал его негативного влияния.

- Искусственный интеллект - это новый драйвер развития человечества, за который уже сегодня развернулась гонка технологических вооружений, - уверен программный директор Ecumene Сергей Рыбаков. - Он минимизирует технические ошибки, позволяет решать сложнейшие вычислительные задачи в ранее недоступные нам сроки, помогает человеку сосредоточиться на реализации своей уникальной особенности - креативности.

Искусственный интеллект - это инновационный инструмент, который наряду с технологиями хранения информации в облаке, становится одной из основ глобальной информационной безопасности.

СПРАВКА «КП»

Искусственный интеллект — это процесс программирования компьютера для самостоятельного принятия решении . Это делает ИИ обширной и сложной областью с множеством различных приложении и методов. Его использование дает возможность получить мощное конкурентное преимущество в бизнесе и все чаще становится приоритетом для менеджеров и руководителей , помогая раскрыть бизнес-потенциал при разработке стратегии и их эффективного внедрения.

HI-FI В РАЗВИТИИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

ИИ - быстро развивающаяся область. Он уже начал оказывать воздействие на различные отрасли, и бизнес-профессионалы заинтересованы в его внедрении в своих организациях.

Как сфокусироваться на управленческих последствиях искусственного интеллекта и некоторых технических аспектах, чтобы разработать наиболее эффективные стратегии его интеграции в ежедневные бизнес-операции и использовать полученные наработки в долгосрочном планировании устойчивого развития? Ответ на этот вопрос искали участники круглого стола, модератором которого стал заведующий кафедрой управления проектами и программами ИГСУ, Российская академия народного хозяйства и государственной службы при Президенте Российской Федерации Максим Сафонов.

Максим Сафонов. Фото: Шпаковский Александр

Максим Сафонов. Фото: Шпаковский Александр

- Мы пониманием, что развитие новых технологий грозит определёнными последствиями, если не принять решения, чтобы купировать возможные опасности, - начал свое выступление научный руководитель Национального центра физики и математики (НЦФМ) академик РАН Александр Сергеев. - Когда началось развитие генетики, учёные поняли, что неконтролируемое развитие генетических исследований может привести к последствиям, которые могут навредить живым системам. Первое, что мы должны обеспечить – это чтобы ИИ был объясним, логически прозрачен и все его решения были понятны. В современном бизнесе, если поставщики не объясняют, как ИИ обрабатывает информацию, то от ИИ отказываются. Второе – искусственный интеллект должен быть доверенным, должен функционировать так, чтобы мы ему доверяли даже в условиях, когда он подвержен внешнему воздействию.

По словам Александра Сергеева, сейчас в стадии строительства находится Национальный центр физики и математики (НЦФМ). Самые интересные вопросы искусственного интеллекта, которые развиваются на его базе – это новые физические реализации ИИ.

- Мы привыкли к тому, что ИИ работает на базе электронных вычислительных устройств, но в дверь стучатся фотонные вычислительные устройства, где, вместо электронов, фотоны являются хранителями, носителями и обработчиками информации, - продолжает Сергеев. - Они открывают совершенно новые возможности. Основную математическую процедуру, которую выполняют искусственные сети, – это перемножение матрицы на матрицу – с помощью оптики можно на многие порядки быстрее производить, чем с помощью обычных электронно-вычислительных машин. Фотонные вычислительные машины, специализированные под задачи ИИ, – это хай-фай в развитии ИИ. На базе НЦФМ мы также разрабатываем новые нейроморфные искусственные сети. Они основываются на новых вычислительных устройствах, которые функционируют мозгоподобно: и в значительной степени имитируют обработку информации мозгом, и ждут своего применения на базе новой компонентной базы. Также идёт развитие мемристоров – устройств, где сопротивление меняется в зависимости от того, какое количество тока протекло. Это фактически имитация пластичности синопса. Наряду с обычным развитием ИИ, это два наиболее интересных направления, над которыми мы работаем в НЦФМ.

ДОВЕРЯЙ И ПРОВЕРЯЙ

Директор Института системного программирования им. В.П. Иванникова Россиийской академии наук Арутюн Аветисян рассказал, что история развития современного ИИ началась еще в 1960-х годах, именно тогда появился сам термин.

- Сейчас мы видим различные его реинкарнации, в частности последний писк – это ChatGPT, - говорит эксперт. - По нему уже пишут дипломные работы и диссертации. Но это лишь самое начало. Для дальнейшего развития необходимы мощные аппаратные средства обработки, хранения массивов данных. Что касается безопасности, то мы живем в мире, где ее границы размыты. И без ИИ понятно, что любую IT-систему можно взломать. ИИ должен быть доверенным. Но слово «доверие» в данном случае нуждается в юридической канве. Все, что связано с ИИ должно сертифицироваться, - от создания до эксплуатации.

Арутюн Аветисян. Фото: Шпаковский Александр

Арутюн Аветисян. Фото: Шпаковский Александр

Эксперт пояснил, что с одной стороны, мы вынуждены внедрять ИИ, с другой, должны осознавать, что имеем дело с чем-то очень сложным, требующим многогранной регуляторики. Вот лишь один пример. Если взять ChatGPT и задать ему сложный вопрос, он начнет генерировать факты, которых не было. И это не специально, а потому что чат так устроен. Это грозит подрывом репутации.

- Как этого избежать? - спрашивает Аветисян и отвечает, - должен быть второй контур фактчекинга.

Президент Интерпроком (IPC) Леонид Алтухов сравнил современный ИИ с весенними ростками, пробивающимися сквозь землю.

Леонид Алтухов. Фото: Шпаковский Александр

Леонид Алтухов. Фото: Шпаковский Александр

- Чтобы они не росли как сорняки – нужна соответствующая риторика, стандарты, ГОСТы, доверенности, - объяснил он. – И, конечно же, нужно обеспечить возможность существования системы ИИ и ее развития сообща. В одиночку здесь не справиться. Нашествие ИИ – это как электрификация всей страны. Поэтому я за то, чтобы тема ИИ была государственной. Давайте сделаем ГОСТы на определенном базовом ресурсе. Иначе тема не взлетит. И, возможно, через какое-то время мы как страна будем не только поставщикам ресурсов ИИ и целых систем.

А КТО В ОТВЕТЕ?

Секретарь Общественной палаты Россиийской Федерации, председатель совета Исследовательского центра частного права им. С.С. Алексеева при Президенте РФ Лидия Михеева считает, что ИИ не нуждается в привычном кондовом юридическом регулировании. Есть два очевидных вопроса, на которые судебная система уже ищет ответы.

- Во-первых, об авторстве конечного результата, который создан с применением ИИ, - перечисляет Лидия Михеева. - Во-вторых, распределение рисков негативных последствий от использования плодов ИИ. Я уверена, что в ближайшие месяцы юристы с ответами определятся. И, скорее всего в отношении, авторства будет некое производное. А что касается ответственности, я вижу несколько ответчиков одновременно. Того, кто начал разработку соответствующего алгоритма, тот, кто подхватил разработчика, посредника, который на своей площадке продвигает оболочку и конечного пользователя, который воспользовавшись нейросетями, снегерил результат. Кто заплатит – это главный вопрос.

Помощник председателя Суда по интеллектуальным правам Наталья Капырина рассказала, что в России пока нет практик, связанных с судебными решениями в области ИИ. Но в мире уже есть прецеденты. В частности, нашумевшая кампания Стефана Тайлера, который подавал заявки в разные патентные ведомства, чтобы узнать, кого можно указать автором ИИ при разработке систем в области ИИ. Везде, кстати, получил отказы. Есть казусы, которые еще не дошли до финальных решений.

Наталья Капырина. Фото: Шпаковский Александр

Наталья Капырина. Фото: Шпаковский Александр

В ГОСУДАРСТВЕННОМ ПЛАНЕ

Начальник отдела инновационных институтов развития Департамента стратегического развития и инновации Минэкономразвития России Никита Якунов рассказал, что ИИ представляет большой интерес для государства в целом. Ведь это та технология, которая со временем охватит все сферы, поможет повысить производительность труда и приведет к изменению постиндустриального статуса.

- В России много чего делается для развития тематики ИИ, - указал Никита Якунов. - Основные тезисы указаны в стратегии развития ИИ, которая сейчас актуализируется. Плюс развиваются дорожные карты, проводятся мероприятия государственных и коммерческих организаций и компаний, взявших на себя ответственность и обязательства за развитие ИИ перед государством. Внедрен федеральный проект «Искусственный интеллект». Если говорить в целом, то забота государства в области ИИ: наука, кадры, поддержка разработчиков, развитие аппаратно-программных комплексов, нормативка, данные, популяризация.

Никита Якунов. Фото: Шпаковский Александр

Никита Якунов. Фото: Шпаковский Александр

РОБОТЫ – НЕ ПАНАЦЕЯ

Заведующий кафедрой физики высоких энергий МФТИ Тагир Аушев поделился, что новые идеи, способные развить сферу ИИ нужно искать в области изучения мозга, обращая внимание на ту эффективность, с которой наш мозг работает, на его энергозатраты и скорость обработки информации.

- Много разговоров ведется об опасности ИИ, - отметил эксперт. – Не только с точки зрения достоверности, но и вытеснения человека из привычных ему сфер жизни. Однако человечество всегда боролось за свое выживание. С технологическим прогрессом выживать стало попроще. Но ИИ - тот самый соперник, который заставит людей продолжать эволюционировать, причем не в физическом плане, а в поиске экологических ниш жизни.

Актуальность экологической тематики затронул и член-корреспондент Академии криптографии Российской Федерации Андреи Коваленко, приведя в пример картину «Устный счет в народной школе» Богданова-Бельского.

- На занятиях я предлагаю студентам, отложив гаджеты, решить написанную на доске задачу, - говорит Коваленко. – Не могут. Это тяжело. Развитие гаджетов уже не позволяет нам решать в уме сложные примеры. Что же будет с повсеместным внедрением ИИ? Допустим, авто управляется роботом. Водитель не притрагивается к рулю. Спокойно ездит. Но в критической ситуации, которые могут быть самыми разными на дороге, робот передает управление водителю, а тот уже отвык. Не может сразу вспомнить грамотные маневры при риске ДТП. Вот и получается, что если мы будем полагаться на роботов, то забудем, как действовать в критических ситуациях.

Андрей Коваленко. Фото: Шпаковский Александр

Андрей Коваленко. Фото: Шпаковский Александр