Статья 'Этическое регулирование искусственного интеллекта как фактор безопасности финансово-банковского сектора: опыт Китая' - журнал 'Вопросы безопасности' - NotaBene.ru
по
Меню журнала
> Архив номеров > Рубрики > О журнале > Авторы > О журнале > Требования к статьям > Редсовет > Порядок рецензирования статей > Политика издания > Ретракция статей > Этические принципы > Политика открытого доступа > Оплата за публикации в открытом доступе > Online First Pre-Publication > Политика авторских прав и лицензий > Политика цифрового хранения публикации > Политика идентификации статей > Политика проверки на плагиат
Журналы индексируются
Реквизиты журнала

ГЛАВНАЯ > Вернуться к содержанию
Вопросы безопасности
Правильная ссылка на статью:

Этическое регулирование искусственного интеллекта как фактор безопасности финансово-банковского сектора: опыт Китая

Горян Элла Владимировна

ORCID: 0000-0002-5962-3929

кандидат юридических наук

доцент, Владивостокский государственный университет

690014, Россия, Приморский край, г. Владивосток, ул. Гоголя, 41, каб. 5502

Gorian Ella

PhD in Law

Associate Professor, Vladivostok State University

690014, Russia, Primorsky Krai, Vladivostok, Gogol str., 41, office 5502

ella-gorjan@yandex.ru
Другие публикации этого автора
 

 

DOI:

10.25136/2409-7543.2022.2.38380

EDN:

IGFWAA

Дата направления статьи в редакцию:

27-06-2022


Дата публикации:

04-07-2022


Аннотация: Объектом исследования являются отношения в сфере этического регулирования применения технологий искусственного интеллекта в финансово-банковском секторе. Предмет исследования представлен нормативными документами Китая, устанавливающими требования к развертыванию и применению технологий искусственного интеллекта. Определяются особенности китайского подхода к регулированию отношений в рассматриваемой сфере. Характеризуются общие и специальные этические требования к технологиям искусственного интеллекта. Исследуется деятельность финансового регулятора – Народного банка Китая в регулировании отношений в сфере этики искусственного интеллекта и финтех-компаний, определяются ключевые аспекты безопасности, в отношении которых этические требования особенно необходимы.   Китай планомерно осуществляет государственную политику по правовому регулированию цифровой экономики путем нормативного включения этических требований к технологиям искусственного интеллекта правовые механизмы. Этические предписания охватывают все аспекты отношений и акцентируют внимание на безопасности персональных данных, свободе конкуренции и ответственности субъектов. Особо отметим акцент китайских властей на принципе недискриминации отдельных социальных групп и административно-территориальных образований, что позволит сократить и нивелировать разрыв в использовании цифровых технологий в общегосударственном масштабе, а также будет способствовать сплочению нации. Финансовый регулятор держит вопрос этики искусственного интеллекта на контроле, разрабатывая соответствующие нормативно-правовые акты для финансовых учреждений. Особое внимание Народный банк Китая уделяет «слабым» в правовом регулировании аспектам финансово-банковской сферы: защите персональных данных и недобросовестной конкуренции.


Ключевые слова:

финансово-банковский сектор, информационная безопасность, этика, искусственный интеллект, финансовый регулятор, Китай, безопасность данных, цифровая экономика, финтех, персональные данные

Abstract: The object of the study is the relations in the field of ethical regulation of the use of artificial intelligence technologies in the financial and banking sector. The subject of the study is represented by China's regulatory documents that establish requirements for the deployment and application of artificial intelligence technologies. The features of the Chinese approach to the regulation of relations in this area are determined. General and special ethical requirements for artificial intelligence technologies are characterized. The article examines the activities of the financial regulator – the People's Bank of China in regulating relations in the field of ethics of artificial intelligence and fintech companies, identifies key aspects of security in respect of which ethical requirements are especially necessary. China systematically implements the state policy on the legal regulation of the digital economy through the regulatory inclusion of ethical requirements for artificial intelligence technologies legal mechanisms. Ethical regulations cover all aspects of relations and focus on the security of personal data, freedom of competition and responsibility of subjects. We especially note the emphasis of the Chinese authorities on the principle of non-discrimination of individual social groups and administrative-territorial entities, which will reduce and level the gap in the use of digital technologies on a national scale, and will also contribute to the unity of the nation. The financial regulator keeps the issue of ethics of artificial intelligence under control, developing appropriate regulatory acts for financial institutions. The People's Bank of China pays special attention to the "weak" aspects of the financial and banking sector in legal regulation: personal data protection and unfair competition.


Keywords:

financial and banking sector, information security, ethics, artificial intelligence, financial regulator, China, data security, digital economy, fintech, personal data

Введение. Искусственный интеллект (далее - ИИ) стал главной движущей силой нового витка промышленной трансформации во всем мире. Многие страны используют возможность революции ИИ для содействия внутреннему экономическому и технологическому развитию. За последние несколько десятилетий мы стали свидетелями многих достижений в области вычислений и подходов, связанных с искусственным интеллектом (ИИ), благодаря прогрессу в области машинного обучения, вычислительной мощности компьютеров, доступности мобильного Интернета, доступности больших объемов данных и технологий хранения данных. Это привело к ряду прорывов, которые позволили ИИ стать двигателем экономического развития во многих странах.

Правительство, научное сообщество и промышленные круги пришли к единому мнению, что безопасность приложений с использованием технологий ИИ становится ключевым фактором их применения, поэтому на государственном уровне необходимо принятие гарантий для снижения потенциальных рисков, связанных с ИИ. С этой целью частный и публичный секторы разрабатывают каталоги этических принципов ИИ, соблюдение которых в существующих системах и продуктах ИИ сопряжено с необходимостью наличия высокотехнологичных систем управления ИИ, включая его обучение, тестирование и проверку безопасности. Эти системы управления все еще находятся на стадии интенсивной разработки, поэтому недостаточно готовы к широкому коммерческому внедрению. Основные технические препятствия глубоко уходят корнями в фундаментальные проблемы современных исследований ИИ, такие как моральное познание на уровне человека, этические рассуждения на основе здравого смысла и междисциплинарная разработка этики ИИ. Тем не менее, некоторые государства на правительственном уровне определяют фундаментальные этические принципы, в рамках которых необходимо развивать и применять технологии ИИ.

Исследователи отмечают, что на фоне глобальной конкуренции за использование возможностей, предоставляемых искусственным интеллектом, многие страны и регионы открыто участвуют в «гонке за ИИ» [1]. По их мнению, повышенная прозрачность рисков, связанных с технологией ИИ, привела ко все более громким призывам к регулирующим органам не ограничиваться преимуществами, а также обеспечить надлежащее регулирование для обеспечения «заслуживающего доверия» ИИ, то есть законного, этичного и надежного. Помимо минимизации рисков, такое регулирование могло бы способствовать внедрению ИИ, повысить правовую определенность и, следовательно, также способствовать продвижению позиций стран в гонке. Следовательно, по мнению исследователей, «гонка за ИИ» также порождает «гонку за регулированием ИИ». Китай стремится занять лидирующее место в подобных «гонках», но подходит к этому вопросу фундаментально, разрабатывая правовые инструменты в рамках формирования национальной системы информационной безопасности. В июле 2017 года Государственный совет Китая обнародовал стратегию страны по развитию искусственного интеллекта под названием «План развития искусственного интеллекта нового поколения» (新一代人工智能发展规划). В этой стратегии изложены цели Китая стать мировым лидером в области искусственного интеллекта к 2030 году, монетизировать искусственный интеллект и превратить его в отрасль стоимостью в триллион юаней (около 150 миллиардов долларов) и стать движущей силой в определении этических норм и стандартов для искусственного интеллекта. В нескольких отчетах анализируются конкретные аспекты политики Китая в области ИИ или оцениваются технические возможности страны. Этот документ призван стать планом полной экосистемы ИИ для страны. Китайские ученые ожидают, что ИИ изменит все аспекты экономической деятельности и приведет к новым требованиям, новым продуктам, новым технологиям и новым формам бизнеса всех размеров. По их мнению, Китай должен воспользоваться этой возможностью и инициировать серьезную эволюцию экономической структуры [2].

Национальный профессиональный комитет по управлению искусственным интеллектом Китайской Народной Республики осенью 2021 года издал Кодекс этики искусственного интеллекта нового поколения (新一代人工智能伦理规范). А в январе Народный банк Китая издал План развития финансовых технологий на 2022-2025 гг. (金融科技发展规划 (2022-2025年)), в котором он изложил основные принципы своей системы управления этикой в области финансовых технологий. Финансовый регулятор Китая наращивает усилия по созданию к концу 2022 года системы этического управления для сектора финансовых технологий, поскольку алгоритмы и новые технологии, включая блокчейн, искусственный интеллект и большие данные, все больше внедряются в финансовые продукты и услуги. Поэтому власти Китая планируют создать целостный нормативно-правовой механизм для привлечения бизнеса к ответственности и наказания за злоупотребления.

Цель нашего исследования – определить особенности китайского подхода к регулированию этических отношений в сфере использования искусственного интеллекта в финансово-банковском секторе. С целью получения наиболее достоверных научных результатов был использован ряд общенаучных (системно-структурный и формально-логический методы) и специальных юридических методов познания (сравнительно-правовой и формально-юридический методы).

Основная часть. Китайские исследователи заложили научно-обоснованный фундамент необходимости этического регулирования применения ИИ в аспекте безопасности. В 2019 году было проведено исследование, в результате которого ученые предложили создать универсальную этическую основу управления ИИ в рамках теории ответственных исследований и инноваций (responsible research and innovation theory), чтобы сформировать открытую научную систему управления [3]. Для этого были выявлены связанные с ИИ этические риски в обществе и проанализированы элементы системы управления ИИ, авторы также провели сравнение зарубежных и китайских подходов к регулированию ИИ.

План развития искусственного интеллекта нового поколения от 2017 года устанавливает, прежде всего, материальные цели, но он также подчеркивает конкретное стремление Китая стать мировым лидером в определении этических норм и стандартов для ИИ. После утверждения этого документа публичный и частный сектор относительно медленно разрабатывали основы этики ИИ. Но в марте 2019 года Министерство науки и технологий Китая учредило Национальный экспертный комитет по управлению искусственным интеллектом нового поколения. В июне того же года этот орган опубликовал восемь принципов управления ИИ. В принципах подчеркивалось, что, прежде всего, развитие ИИ должно начинаться с повышения общего благосостояния человечества. Принципы также подчеркивали уважение прав человека, неприкосновенности частной жизни и справедливости. Наконец, они отметили важность прозрачности, ответственности, сотрудничества и гибкости для борьбы с новыми и возникающими рисками [4]. В продолжение этого процесса Управление по стандартизации Китайской Народной Республики, ответственное за разработку технических стандартов, выпустило Белую книгу по стандартизации ИИ (人工智能标准化白皮书). В документе обсуждаются вопросы безопасности и этики, связанные с технологиями. Изложены три ключевых принципа установления этических требований к технологиям ИИ. Во-первых, принцип человеческого интереса гласит, что конечной целью ИИ является благополучие людей. Во-вторых, принцип ответственности подчеркивает необходимость установления подотчетности как требования для разработки и развертывания систем и решений ИИ. В этот принцип включена прозрачность, которая поддерживает требование понимания принципов работы системы ИИ. В-третьих, принцип непротиворечивости прав и обязанностей подчеркивал, что, с одной стороны, данные должны быть должным образом зарегистрированы и иметь место для надзора, а с другой стороны, что коммерческие организации должны иметь возможность защищать свою интеллектуальную собственность.

Государственные органы и частные компании также разработали свои собственные принципы этики ИИ. Например, в ноябре 2018 года была создана Пекинская академия искусственного интеллекта (научно-исследовательское учреждение, в который входят ведущие китайские компании и пекинские университеты), которая опубликовала «Пекинские принципы ИИ», которым необходимо следовать при исследованиях и разработках, использовании и управлении ИИ (Beijing AI Principles). Этот документ определяет, что ИИ-технологии должны быть использованы во благо для человечества «должным образом» и предугадывать будущие угрозы и адаптироваться к ним. Принципы были поддержаны различными элитными китайскими университетами и компаниями, включая Baidu, Alibaba и Tencent [5]. На наш взгляд, эти принципы имеют некоторое сходство с теми, которые поддерживаются западными странами [6], однако институциональные и культурные различия означают, что результаты, вероятно, будут существенно отличаться: этику ИИ в Китае необходимо понимать с точки зрения культуры, идеологии и общественного мнения страны. В принципах, утверждаемых Китаем, больший упор делается на социальную ответственность и групповые и общественные отношения, при этом уделяя относительно меньше внимания индивидуальным правам, таким образом повторяя более ранние дискуссии о конфуцианской этике в социальных сетях.

Подходы Китая к регулированию ИИ являются частью его широкой и последовательной стратегии адаптации к управлению с помощью цифровых средств. ИИ является частью пакета цифровых технологий, который авторитарный режим Китая активно использует не только для улучшения государственных услуг, но и для укрепления своего авторитарного управления. Есть мнение, что цифровой прогресс Китая извлекает выгоду из его огромного интернет-рынка, сильной государственной власти и слабого гражданского правосознания, что делает его более конкурентоспособным, чем западные демократические общества, где забота о конфиденциальности ограничивает их развитие ИИ. Однако амбициозный план Китая по ИИ сопряжен со значительными рисками; его общее влияние зависит от того, как ИИ влияет на основные источники политической легитимности, включая экономический рост, социальную стабильность и идеологию. Подход Китая заключается в том, чтобы сделать ставку на свой успех в (а) обеспечении бурно развивающейся экономики ИИ, (б) обеспечении плавной социальной трансформации в эпоху ИИ и (в) доказательстве идеологического превосходства его авторитарных и коммунистических ценностей [7].

Еще одна группа китайских исследователей отмечает необходимость установления консенсуса по поводу этических принципов ИИ на основе совместной всеобщей межсекторальной и междисциплинарной вовлеченности всех представителей публичного и частного секторов. Они должны активизировать совместные исследования и разработку технологий управления ИИ с тем, чтобы успевать за быстрым прогрессом ИИ. Исследователи подчеркивают необходимость активного продвижения этического образования для всех заинтересованных сторон исследований и разработок, применения и управления ИИ с целью значительного повышения их осведомленности об этике и способствования установлению общих правил ответственного поведения с ИИ [8].

В сентябре 2021 года Национальный профессиональный комитет по управлению искусственным интеллектом нового поколения издал «Кодекс этики искусственного интеллекта нового поколения» (далее - Кодекс этики), целью которого является интеграция этики во весь жизненный цикл ИИ и обеспечение этических рекомендаций для физических, юридических лиц и других связанных с ними учреждений, занимающихся деятельностью, связанной с ИИ (新一代人工智能伦理规范).

Кодекс этики состоит из 6 глав, включающих 25 статей, которые устанавливают как основные этические требования, так и специальные требования к конкретным видам деятельности. Сфера применения Кодекса охватывает деятельность физических и юридических лиц (и других связанных с ними учреждений) по управлению ИИ, научным исследованиям в сфере ИИ, распространению продуктов и услуг ИИ и использованию ИИ-технологий (ст. 2). При этом деятельность по управлению ИИ относится к стратегическому планированию, формулированию и осуществлению политики, правил и технических стандартов, связанных с ИИ, распределением ресурсов, надзором и обзором. Под научно-исследовательской деятельностью понимаются научные исследования, разработка технологий и продуктов, связанных с искусственным интеллектом. Под распространением продуктов и услуг ИИ Кодекс подразумевает производство, эксплуатацию и продажу продуктов и услуг ИИ. Использование рассматривается как закупка, потребление и эксплуатация продуктов и услуг ИИ.

Основные этические требования к ИИ изложены в статье 3 Кодекса. Они включают шесть детализированных позиций. Во-первых, это улучшение благосостояния человека. На первом месте должен быть человек, его права и интересы, национальные или региональные ценности. Необходимо придерживаться приоритета общественных интересов, поощрять гармонию между человеком и машиной, содействовать экономическому, социальному и экологическому устойчивому развитию человеческого общества.

Во-вторых, при использовании ИИ-технологий необходимо придерживаться универсальности и инклюзивности, эффективно защищать законные права и интересы всех соответствующих субъектов, содействовать справедливому распределению преимуществ ИИ-технологий всем обществом, а также содействовать социальной справедливости, справедливости и равным возможностям. Особо выделено внимание к уязвимым категориям населения (пожилым людям, лицам с ограниченными возможностями, детям), которым необходимо предоставлять техническую поддержку или альтернативные способы получения услуг.

Третьим принципом определено обеспечение и защита частной жизни. Сбор, обработка и использование персональных данных должны осуществляться в соответствии с принципами законности, необходимости и целостности. Необходимо исключить возможность нарушения права на неприкосновенность частной жизни, а также незаконного сбора и использования персональных данных путем кражи, фальсификации, утечки и т.д.

ИИ-технологии должны быть управляемы и оправдывать доверие пользователей. Субъект, использующий ИИ-технологии, обязан гарантировать, что люди обладают полной независимой властью принятия решений, имеют право выбирать и принимать услуги, предоставляемые ИИ, имеют право отказаться от взаимодействия с ИИ в любое время и имеют право приостановить работу систем ИИ в любое время. Установлена презумпция постоянного контроля человека над ИИ-технологией.

Использование ИИ-технологий подразумевает усиление ответственности субъекта. Конечным субъектом ответственности выступает физическое лицо, права и обязанности всех вовлеченных субъектов должны быть определены, все аспекты жизненного цикла ИИ должны подвергаться постоянному анализу и корректировке. Каждая организация должна разработать действенный и постоянно пересматриваемый механизм подотчетности ИИ.

И наконец, требование о повышении этической грамотности. Необходимы популяризация знаний об ИИ, участие в дискуссиях по этическим вопросам ИИ, углубленное продвижение практики этического управления ИИ-технологиями и улучшению возможностей реагирования.

Специальные требования к конкретным видам деятельности разбиты на 4 группы в зависимости от вида деятельности: (1) управление, (2) научные исследования, (3) распространение и (4) использование.

В сфере управления ИИ выделено 5 этических требований. Во-первых, это содействие гибкому управлению (ст. 5) путем учета законов развития ИИ, понимания потенциала и его ограничений, постоянной оптимизации механизмов и методов управления, а также содействия устойчивому развитию ИИ в процессе принятия стратегических решений, построения системы и распределения ресурсов. Во-вторых, это соблюдение соответствующих нормативных актов, политики и стандартов в области ИИ, интеграция этических стандартов в процесс управления, своевременное обобщение и продвижение опыта управления ИИ (ст. 6).

Заслуживает внимания требование о «правильном» использовании властных полномочий (ст. 7). Оно включает в себя а) конкретизацию полномочий и пределов управленческой деятельности, связанной с ИИ, а также б) стандартизацию условий работы и процедур. При осуществлении властных полномочий субъект обязан уважать и защищать права соответствующих лиц (неприкосновенность частной жизни, свободу, достоинство и безопасность и проч.), а также реагировать на нарушения прав и свобод лиц другими субъектами управленческой деятельности. Особое место в управленческой деятельности занимает управление рисками (risk management). В аспекте этических требований при использовании ИИ-технологий управленческие кадры должны заниматься профилактикой рисков путем проведения своевременного и систематического мониторинга и оценки рисков, создания эффективных механизмов раннего предупреждения о рисках и улучшения возможностей контроля рисков и управления ими в рамках этики ИИ (ст. 8). И наконец, требование в сфере организационной деятельности руководителя: это внимание к правам, интересам и требованиям различных заинтересованных сторон в области ИИ, поощрение применения диверсифицированных технологий ИИ для решения практических задач экономического и социального развития, поощрение междисциплинарных, межрегиональных и трансграничных обменов и сотрудничества, а также содействие формированию структуры управления ИИ и стандартов с широким консенсусом (ст. 9).

В сфере научных исследований этические требования включают (1) самодисциплину и следование этическим требованиям (ст. 10), (2) повышение качества данных (ст. 11), (3) повышение безопасности и прозрачности (ст. 12) и (4) недискриминация (ст. 13). При проведении научно-исследовательской деятельности важно осознавать ответственность и самостоятельно ограничивать действия, могущие нарушить этические правила и причинить вред охраняемым интересам. Необходимо интегрировать научную этику и этику ИИ во все аспекты технологических исследований и разработок, сознательно проводить самоанализ и не заниматься исследованиями и разработками в сфере ИИ, нарушающими этику (ст. 10).

При работе с данными (сбор, хранение, обработка, передача и проч.) важно соблюдать принципы полноты, своевременности, последовательности и точности. Неукоснительное соблюдение законов, стандартов и предписаний в сфере безопасности данных – неотъемлемый протокол проведения НИОКР в сфере ИИ (ст. 11). Деятельность по разработке, внедрению и применению алгоритмов ИИ должна быть прозрачной, интерпретируемой, понятной, надежной и управляемой. Повышение устойчивости и адаптивности систем ИИ – один из факторов безопасности, достигаемый благодаря проверке, аудиту, надзору, отслеживанию и прогнозированию процессов (ст. 12). Проблема потенциальной дискриминации при использовании ИИ в процессах принятия решений решается при учете требования дифференциации и предотвращения возможных искажений данных и алгоритмов (ст. 13).

В сфере реализации продукции и услуг ИИ предусмотрено четыре базовых требования: о конкуренции, контроле качества, защите пользователей и готовности к чрезвычайным ситуациям. Требуется соблюдение законов рынка и конкурентного (антимонопольного) законодательства, а также прав интеллектуальной собственности других субъектов (ст. 14), усиление мониторинга качества и введение системы оценивания использования продуктов и услуг ИИ. Оценка должна учитывать уровень личной и имущественной безопасности пользователей, конфиденциальности. Недопустимы эксплуатация, продажа или предоставление продуктов и услуг, не соответствующих стандартам качества (ст. 15). Логическим продолжением этого правила является требование о создании эффективного и доступного механизма защиты прав и интересов пользователей. Он должен предусматривать понятное и однозначное информирование пользователей о наборе (каталоге) функций и ограничений продуктов и услуг ИИ. Важным элементом такого механизма должна быть функция по получению информированного согласия пользователя на взаимодействие с ИИ (ст. 16). На случай чрезвычайных ситуаций должны быть разработаны и регулярно пересматриваемы аварийные механизмы, планы и меры по ликвидации вреда, возмещению убытков. На ответственных субъектов возлагается обязанность по осуществлению контроля за системами ИИ, поддержанию обратной связи с пользователями и своевременному реагированию на их обращения. Кроме того, субъект обязан предотвращать системные сбои и поддерживать готовность по оказанию помощи соответствующим организациям во вмешательстве в системы ИИ в соответствии с законами и нормативными актами для снижения потерь и избегания рисков (ст. 17).

При использовании продуктов и услуг ИИ следует придерживаться следующих требований. Во-первых, необходимо содействовать добросовестному использованию ИИ-технологий путем демонстрации и оценки продуктов и услуг до их использования, предварительно ознакомиться с техническими характеристиками и преимуществами технологий (ст. 18). Использование продуктов и услуг с ИИ-технологиями должно соответствовать их предназначению: субъект должен понимать, в какой сфере применяется продукт или услуга, а также какие негативные последствия от их применения могут возникнуть. Поэтому субъект обязан уважать право пользователей не использовать продукты или услуги ИИ, избегать как ненадлежащего использования и злоупотребления ими, так и непреднамеренного причинения ущерба законным правам и интересам других лиц (ст. 19). Этические правила запрещают использование продуктов и услуги ИИ, которые не соответствуют законам, нормативным актам, этике и стандартам, равно как и использование технологий для осуществления незаконной деятельности в сфере национальной, общественной и производственной безопасности, категорически запрещается наносить ущерб социальным и общественным интересам (ст. 20). При использовании продуктов и услуг ИИ необходимо предоставлять обратную связь соответствующим субъектам и оказывать помощь в устранении технических уязвимостей безопасности, политических и нормативных пробелов, обнаруженных в процессе использования продуктов и услуг искусственного интеллекта (ст. 21). И наконец, последним этическим требованием является постоянное повышение навыков эксплуатации, технического обслуживания, реагирования на чрезвычайные ситуации и других аспектов использования в использовании продуктов и услуг ИИ (ст. 22).

На основе этого Кодекса этики финансовый регулятор - Народный банк Китая, - изложил основные принципы своей системы управления этикой в финансово-банковском секторе в Плане развития финансовых технологий на 2022–2025 годы (金融科技发展规划(2022-2025年)). Финансовый регулятор взял на себя инициативу по созданию системы управления этикой, которая будет содержать не только правила, но и структуру самоуправления, которой компании должны следовать как в отношении существующих, так и новых финансовых продуктов и услуг, таких как онлайн-платежи, страхование и банковское дело. Он будет охватывать такие вопросы, как распознавание, оценка и устранение рисков, связанных с неэтичными действиями.

Настройка системы была одной из первых задач, поставленных в рассматриваемом плане. Его важность была подчеркнута на мартовском заседании Комитета по финансовым технологиям Народного банка Китая, где он был указан в качестве одного из основных приоритетов политики в 2022 году: система «улучшит раннее предупреждение, мониторинг, анализ и гибкое управление в отношении рисков, связанных с этикой технологий, направляя соответствующие учреждения на выполнение своих обязанностей по этичному управлению… для эффективной защиты законных прав и интересов потребителей и обслуживания реальной экономики» (PBC Fintech Committee Convenes Meeting to Set Tasks for 2022, URL: http://www.pbc.gov.cn/en/3688110/3688172/4437084/4516922/index.html). Несмотря на наличие ряда законов, регулирующих отношения в области использования технологий (Закон о защите личной информации, Закон о кибербезопасности, Закон о безопасности данных и Антимонопольный закон), они специально не затрагивают вопросы этики по отношению к использованию новых технологий.

Этика - не единственный вопрос, требующий регулирования в финансово-банковской сфере. В марте 2021 года финансовый регулятор опубликовал «Оценочную спецификацию алгоритма искусственного интеллекта в финансовых приложениях» (人工智能算法金融应用评价规范), целью которой является предоставление финансовым учреждениям систематической основы для оценки использования интеллектуальных алгоритмов в их продуктах на основе на безопасность, точность и производительность, чтобы они могли лучше управлять новой технологией и предотвращать риски.

Основные принципы системы управления этикой в финансово-банковской сфере должны строиться на основе продвижения инноваций и предотвращения рисков, а участники отрасли должны придерживаться как институциональных правил, так и собственных политик управления. План предусматривает возложение совместной ответственности за применение этических норм на всех субъектов финансового сектора. Так, финансовые учреждения должны взять на себя ответственность за создание внутренних комитетов по этике, а также за внедрение рабочих процессов, таких как проверка этики и раскрытие информации, чтобы предотвратить злоупотребление технологиями. Отраслевые ассоциации должны разрабатывать и внедрять договоры о саморегулировании, а финансовые учреждения должны взять на себя обязательства по саморегулированию, чтобы контролировать свою деятельность. Что касается сотрудников финтех-сектора, то их поощряют проявлять инициативу в изучении этических цифровых практик и следовать им в своей работе.

Учитывая размер финансово-банковского сектора Китая, необходимость решения этических проблем становится все более актуальной. Объем финансовых операций, осуществляемый финансовыми учреждениями Китая, достиг 7,5 трлн. юаней (1,1 трлн. долларов) в 2020 году, а количество финтех-единорогов (финансовых компаний, достигших капитализации в 1 млрд. долларов США) достигло 23, что составило 41% от общего числа в мире (Bartels J. China Fintech Regulations: Fintech Ethics Governance Regulations Loom, URL: https://www.biia.com/china-fintech-regulations-fintech-ethics-governance-regulations-loom/).

В основе предлагаемой Народным банком Китая системы управления этикой в финансово-банковском секторе лежит защита прав потребителей. Поэтому рассматриваемый план будет направлен на искоренение неконтролируемых действий, применяемых некоторыми компаниями для получения прибыли: 1) утечка данных, включая практику незаконного получения персональных данных пользователей без согласия, продажу персональных данных пользователей третьим лицам, а также использование данных для таргет-рекламы; 2) злоупотребление алгоритмами и предвзятость (дискриминация); 3) злоупотребление технологиями, способствующими беспорядочной и недобросовестной конкуренции; 4) устранение нынешнего цифрового разрыва в стране - несбалансированного финансового развития среди различных демографических групп и регионов, что привело к сегментации и чрезмерному сосредоточению внимания на разработке продуктов для групп, грамотных в цифровом отношении, при игнорировании других (пожилые люди, люди с ограниченными возможностями и этнические меньшинства) (Bartels J. China Fintech Regulations: Fintech Ethics Governance Regulations Loom, URL: https://www.biia.com/china-fintech-regulations-fintech-ethics-governance-regulations-loom/).

Выводы. В результате проведенного исследования мы пришли к следующим выводам. Китай планомерно осуществляет государственную политику по правовому регулированию цифровой экономики путем нормативного включения этических требований к технологиям искусственного интеллекта правовые механизмы. Этические предписания охватывают все аспекты отношений и акцентируют внимание на безопасности персональных данных, свободе конкуренции и ответственности субъектов. Особо отметим акцент китайских властей на принципе недискриминации отдельных социальных групп и административно-территориальных образований, что позволит сократить и нивелировать разрыв в использовании цифровых технологий в общегосударственном масштабе, а также будет способствовать сплочению нации. Финансовый регулятор держит вопрос этики искусственного интеллекта на контроле, разрабатывая соответствующие нормативно-правовые акты для финансовых учреждений. Особое внимание Народный банк Китая уделяет «слабым» в правовом регулировании аспектам финаносов-банковской сферы: защите персональных данных и недобросовестной конкуренции.

Исследование выполнено при финансовой поддержке РФФИ в рамках научного проекта 20-011-00454 «Обеспечение прав инвесторов в банковском и финансовом секторах в условиях цифровизации экономики в РФ и ведущих финансовых центрах Восточной Азии: сравнительно-правовой аспект».

Библиография
[1. Smuha N.A. From a ‘race to AI’ to a ‘race to AI regulation’: regulatory competition for artificial intelligence // Law, Innovation and Technology. 2021. №1(13). Pp. 57-84. ]
[2. Wu F., Lu C., Zhu M. Towards a new generation of artificial intelligence in China // Nature Machine Intelligence. 2020. №2. Pp. 312–316. ]
[3. Zhangand H., Gao L. Shaping the Governance Framework towards the Artificial Intelligence from the Responsible Research and Innovation // IEEE International Conference on Advanced Roboticsandits Social Impacts (ARSO). 2019. Pp. 213-218. ]
[4. Roberts H., Cowls J., Morley J. The Chinese approach to artificial intelligence: ananalysis of policy, ethics, and regulation // AI & Society. 2021. №36. Pp. 59–77. ]
[5. Daly A., Hagendorff T., Li H., Mann M. et al. Artificial Intelligence, Governance and Ethics: Global Perspectives // The Chinese University of Hong Kong Faculty of Law Research Paper. 2019. №15. ]
[6. Горян Э.В. Перспективы использования искусственного интеллекта в финансово-банковском секторе: опыт Сингапура // Территория новых возможностей. Вестник Владивостокского государственного университета экономики и сервиса. 2020. Т. 12, № 3. С. 86–99. ]
[7. Zeng J. Artificial intelligence and China's authoritarian governance // International Affairs. 2020. Vol. 96. Iss. 6. Pp. 1441–1459. ]
[8. Wu W., Huang T., Gong K. Ethical Principles and Governance Technology Development of AI in China // Engineering. 2020. Vol. 6. Iss. 3. Pp. 302-309. ]
References
[1. Smuha, N.A. (2021). From a ‘race to AI’ to a ‘race to AI regulation’: regulatory competition for artificial intelligence. Law, Innovation and Technology, 13(1), 57-84. ]
[2. Wu, F., Lu, C., & Zhu, M. (2020). Towards a new generation of artificial intelligence in China. Nature Machine Intelligence, 2, 312–316. ]
[3. Zhangand, H. & Gao, L. (2019). Shaping the Governance Framework towards the Artificial Intelligence from the Responsible Research and Innovation. IEEE International Conference on Advanced Roboticsandits Social Impacts (ARSO), 213-218. ]
[4. Roberts, H., Cowls, J., & Morley, J. (2021). The Chinese approach to artificial intelligence: ananalysis of policy, ethics, and regulation. AI & Society, 36, 59–77. ]
[5. Daly, A., Hagendorff, T., Li, H., Mann, M. et al. (2019). Artificial Intelligence, Governance and Ethics: Global Perspectives. The Chinese University of Hong Kong Faculty of Law Research Paper, 15. ]
[6. Gorian, E.V. (2020). Artificial Intelligence in the financial and banking sector: experience of Singapore. The Territory of New Opportunities. The Herald of Vladivostok State University of Economics and Service, 3(12), 86–99. ]
[7. Zeng, J. (2020). Artificial intelligence and China's authoritarian governance. International Affairs, 6(96), 1441–1459. ]
[8. Wu, W., Huang, T., & Gong, K. (2020). Ethical Principles and Governance Technology Development of AI in China. Engineering, 3(6), 302-309. ]

Результаты процедуры рецензирования статьи

В связи с политикой двойного слепого рецензирования личность рецензента не раскрывается.
Со списком рецензентов издательства можно ознакомиться здесь.

Предмет исследования. Глобальная цифровизация всех сфер общественной жизни, включая все отрасли экономики, действительно ставит перед законодателями проблемы поиска юридических механизмов обеспечения безопасности общественных отношений. Предметом исследования рецензируемой статьи являются особенности правового регулирования общественных отношений с участием искусственного интеллекта в финансово-банковском секторе на примере Китая. Именно поиск законодательных решений участия искусственного интеллекта (закрепление этических норм) в финансово-банковском секторе на примере Китая является предметом данной статьи.
Методология исследования. Методологической основой статьи является системно-структурный подход к предмету исследования. Основной метод исследования – анализ, в том числе сравнительный анализ законодательства и правоприменения на примере Китая. Без изучения зарубежного опыта и использования сравнительного правоведения, позволяющего избегать повторения ошибок в отечественном законодательстве и судебной практике, трудно оценить эффективность решения проблем собственного права и практики его применения, что и явилось целью статьи. Методологический аппарат составили следующие диалектические приемы научного познания: абстрагирование, индукция, дедукция, гипотеза, аналогия, синтез, исторический, теоретико-прогностический, формально-юридический, системно-структурный правового моделирования, а также, применение типологии, классификации, систематизации и обобщения.
Актуальность исследования. Актуальность исследования не вызывает сомнения, ввиду нарастающей тенденции участия (или правильнее сказать использования) искусственного интеллекта в общественных отношениях, в том числе в финансово-банковских. Автор указывает, что подходы Китая к регулированию общественных отношений по поводу искусственного интеллекта являются частью его широкой и последовательной стратегии адаптации к управлению с помощью цифровых средств. Искусственный интеллект является частью пакета цифровых технологий, который Китая активно применяет для улучшения государственных услуг. Китайский опыт может быть использован с целью законодательного определения искусственного интеллекта как объекта, а не субъекта правоотношений. По этой причине сложно недооценить актуальность данной статьи.
Научная новизна. Статья "Этическое регулирование искусственного интеллекта как фактор безопасности финансово-банковского сектора: опыт Китая" является новым научным исследованием. Научную новизну статье придает особый аспект исследования китайского опыта правового регулирования общественных отношений с участием искусственного интеллекта в особой сфере: финансово-банковской. Кроме того, в поле зрения автора находятся именно этические нормы правового регулирования этих особых отношений.
Стиль, структура, содержание статьи. Хотелось бы отметить, что статья написана научным стилем. Статья структурирована. По содержания статья раскрывает заявленную автором тему. Материал изложен последовательно, грамотно и ясно.
Библиография. Полагаем, что автором в достаточной степени изучены библиографические источники по теме статьи. Однако следовало бы обратиться и к отдельным трудам российских ученых, занимающихся вопросами правового режима искусственного интеллекта (А.В. Минбалеев, Т.А. Полякова, Т.Я Хабриева и некоторых других) для оценки правильности позиции китайского законодателя. Вместе с тем, отмеченное замечание не умаляет проделанной автором работы по теме исследования.
Апелляция к оппонентам. Автор для подтверждения собственной позиции весьма корректно апеллирует к чужим мнениям. научная дискуссия ведется им на высоком уровне.
Выводы, интерес читательской аудитории. Бесспорно статья будет интересна специалистам в области информационного права, финансового и банковского права, а также широкому кругу читателей. Статья "Этическое регулирование искусственного интеллекта как фактор безопасности финансово-банковского сектора: опыт Китая" отвечает требованиям, предъявляемым к научным статьям, и рекомендуется к опубликованию.
Ссылка на эту статью

Просто выделите и скопируйте ссылку на эту статью в буфер обмена. Вы можете также попробовать найти похожие статьи


Другие сайты издательства:
Официальный сайт издательства NotaBene / Aurora Group s.r.o.