5.3 ДОВЕРЕННЫЙ ИИ В РЕГУЛИРОВАНИИ И СТАНДАРТАХ

Авторы раздела:
П. М. Готовцев
А. А. Ефремов
А. Г. Игнатьев
А. В. Незнамов
Д. О. Теплякова
М. В. Федоров
Время чтения: 22 мин.
Доверенность систем ИИ обеспечивается строгим выполнением законов, требований нормативно-технического регулирования, профессиональных руководств, инструкций и других утвержденных правил; обеспечением безопасности работы на техническом и инженерном уровне; этически корректным поведением человека на всех этапах создания и эксплуатации этих систем. Ниже представлен краткий обзор некоторых важнейших документов и инициатив в этих областях.

5.3.1 КЛЮЧЕВЫЕ ИГРОКИ И ДОКУМЕНТЫ

На международном уровне действует больше тысячи документов, затрагивающих вопросы этики ИИ. Совет Европы и ЮНЕСКО проявили огромный интерес к теме. Не остались в стороне от этой работы Всемирная организация интеллектуальной собственности, ОЭСР, ISO, G20, а Европейский союз активно формирует нормативное регулирование в сфере ИИ для своих государств-членов.
Совет Европы может принимать обязательные для России нормативные документы — конвенции. Россия — участник и один из ключевых спонсоров Совета Европы. В Совете Европы в 2019 году был создан Специальный комитет по регулированию ИИ (CAHAI). На сегодняшний день это ключевая мировая площадка, где разрабатываются подходы к будущему регулированию ИИ, в том числе рассматривается вопрос о создании специальной конвенции (которая станет обязательной для России в случае ратификации). Представитель России избран председателем рабочей группы Спецкомитета по межгосударственным консультациям; эксперты от России входят в другие рабочие группы. В декабре 2020 года Спецкомитет опубликовал предварительное исследование, на которое будет опираться конвенция.
Кроме того, Советом Европы уже приняты важные рекомендательные документы по вопросам ИИ:
  1. Европейская этическая хартия Совета Европы по использованию ИИ в судебных системах (12.2018);
  2. Руководство о защите данных при использовании ИИ (01.2019);
  3. Декларация комитета министров о манипулятивных возможностях алгоритмов (02.2019);
  4. Рекомендации комиссара Совета Европы по правам человека — 10 шагов для защиты прав человека при использовании ИИ (05.2019);
  5. Рекомендация комитета министров о влиянии алгоритмов на права человека (04.2020)
ЮНЕСКО принимает нормативные документы — конвенции, которые обязательны для России как члена ЮНЕСКО. В 2020 году разработан первый глобальный акт по этике ИИ в формате Рекомендации по этике ИИ. Формирование российской позиции осуществлялось через комитет по И И Комиссии по делам ЮНЕСКО МИД РФ. Окончательная версия документа будет подготовлена для возможного принятия на 41-й сессии Генеральной конференции ЮНЕСКО в конце 2021 года.
Организация Объединенных Наций (ООН) тоже действует в сфере ИИ: прошла серия обсуждений и докладов по теме влияния технологий ИИ на регулирование в сфере интеллектуальной собственности, группа ООН по устойчивому развитию разработала методический документ о роли приватности, этики и защиты данных в достижении целей развития.
Организация экономического сотрудничества и развития (ОЭСР) служит платформой для проведения многосторонних переговоров по экономическим проблемам; Россия не является участником ОЭСР, но взаимодействует с ней. ОЭСР подготовила «Рекомендацию ОЭСР по ИИ» и доклад «Привет, мир! Использование ИИ в государственном секторе». Запущена платформа OECD AI Policy Observatory, которая предоставляет данные и проводит междисциплинарный анализ в области ИИ. Эта платформа — самый масштабный и системный информационно-аналитический ресурс среди других подобных площадок (например, Human-Centered AI или AI Watch).
Большая двадцатка (G20) известна как неформальный форум для обсуждения вопросов глобальной экономики; Россия является членом G20. В рамках G20 подготовлены Принципы «Группы двадцати» в области развития ИИ и Заявление лидеров G20 в Осаке.
Европейский союз обладает собственной правосубъектностью и издает обязательные для государств-членов акты, в том числе по вопросам ИИ. Из последних — «Скоординированный план по ИИ», коммюнике «Укрепление доверия к человекоориентированному ИИ», план создания регуляторных норм и требований «Белая книга об ИИ: европейский подход к совершенству и доверию».
Врезка
Разработано примерно три десятка корпоративных кодексов в сфере ИИ, в первую очередь в крупных мировых компаниях: «Принципы ИИ Microsoft», «Руководящие принципы ИИ» в SAP, «Повседневная этика для ИИ» у IBM, «Ответственный ИИ — прозрачность, предубежденность и ответственность в эпоху доверенного ИИ» в Siemens, «ИИ в Google».

5.3.2 ЭТИЧНЫЙ ИИ В ПРОЕКТЕ ЕВРОКОМИССИИ

В начале 2021 года Еврокомиссия предложила первый в своем роде проект общеевропейского законодательства, который регулирует риски, связанные с применением ИИ. По мнению зампреда Еврокомиссии Маргрете Вестагер, которая отвечает за политику в области конкуренции и за кластер «Европа, готовая к цифровой эпохе», Европейский союз, продвигая такие стандарты, может «проложить путь к этичным технологиям во всем мире». Предложения Еврокомиссии направлены на гармонизацию регулирования в сфере ИИ и охватывают все области за исключением военных технологий. Согласно проекту, правила должны применяться ко всем поставщикам систем с ИИ, включая расположенных в третьих странах, если результат их работы будет использован в ЕС. Однако регулирование не распространяется на органы государственной власти и международные организации в третьих странах, если они используют системы с ИИ в рамках международных соглашений.
Маргрете Вестагер считает, что в проекте используется соразмерный и основанный на оценке риска подход: чем выше риск применения конкретной системы ИИ, тем строже правила. Всего было выделено четыре уровня рисков.
  • Неприемлемый риск. К этой категории относятся ИИ-системы, которые могут представлять угрозу для прав граждан и их безопасности, например разработки, позволяющие манипулировать поведением пользователей. Подобные системы будут запрещены.

  • Высокий риск. К таким системам относятся решения в области критической инфраструктуры (например, транспорта), медицины (в частности, роботизированная хирургия), образования, права и др. Отнесенные к этой категории разработки должны соответствовать строгим критериям безопасности (иметь четкую систему оценки рисков, контроль со стороны людей и др.).

  • Умеренный риск. Пользователи таких ИИ-систем должны четко понимать, что взаимодействуют с машиной (например, чат-ботом), а не человеком.

  • Минимальный риск. В эту категорию попадает большинство ИИ-систем: интеллектуальные спам-фильтры, видеоигры с поддержкой ИИ и так далее.
В основном законопроект направлен на регулирование систем с высоким риском. Внимание общественности привлекают в первую очередь те практики в сфере ИИ, которые будут запрещены в случае принятия нового законодательства. К таким случаям относятся:
  • системы, манипулирующие поведением, что может причинить физический или психологический ущерб;

  • системы, которые используют слабые места определенной группы лиц (возраст, физические или умственные особенности), чтобы существенно исказить поведение, и в результате могут причинить физический или психологический ущерб;

  • оценка или классификация органами госуправления (или по их поручению) благонадежности физических лиц в течение определенного периода времени на основе их социального поведения, известных или прогнозируемых личных или личностных характеристик, если оценка приводит к неблагоприятному отношению к определенным физическим лицам или их группам в социальных контекстах, не связанных с условиями, в которых данные были первоначально созданы или собраны, либо к такому отношению, которое неоправданно или несоразмерно их социальному поведению;

  • использование правоохранительными органами удаленных систем биометрической идентификации в режиме реального времени в общедоступных местах, кроме случаев, когда это критически необходимо, например для целенаправленного поиска потенциальных жертв преступлений, в том числе пропавших без вести детей.
Проект «основан на ценностях и основных правах ЕС и направлен на то, чтобы уверить пользователей в безопасности решений на основе ИИ, а также побудить компании развивать такие решения». Однако критики полагают, что некоторые запреты сформулированы слишком расплывчато и не способны в достаточной мере защитить права граждан. Например, запрет на системы социального рейтинга (если они ведут к дискриминации) распространяется только на органы госуправления. Это не мешает частным компаниям развивать свои системы, а госорганам — использовать их результаты. В запрете указана биометрическая идентификация «в режиме реального времени», что можно истолковать как разрешение использовать ПО для распознавания лиц по уже отснятым изображениям; в этом случае европейская полиция может использовать сервисы типа Clearview AI, которые получили распространение в США. Примечательно, что сама по себе «биометрическая идентификация и категоризация физических лиц» не запрещена, но внесена в список систем с высоким риском, внедрение и развитие которых должны контролироваться. На них будет распространяться набор из пяти обязательств.
  1. Поставщики систем с ИИ обязаны использовать качественные данные, чтобы результаты не были предвзятыми или дискриминирующими.

  2. Они должны предоставлять подробную документацию о том, как работают их системы ИИ, чтобы власти могли оценить их соответствие стандартам.

  3. Поставщики должны делиться информацией с пользователями, чтобы помочь им понять и правильно использовать системы с ИИ.

  4. Они должны обеспечить соответствующий уровень человеческого надзора как при разработке, так и при внедрении ИИ.

  5. Они должны соблюдать самые высокие стандарты кибербезопасности.
ЕС стремится стать лидером в разработке безопасного, надежного и человекоориентированного искусственного интеллекта. Поэтому, несмотря на недочеты, этот проект можно считать первым шагом ЕС на пути к созданию подхода, отличного от моделей Китая и США.

5.3.3 ОЦЕНКА ВОЗДЕЙСТВИЯ И ЕЕ ОТРАЖЕНИЕ В СТАНДАРТЕ IEEE

Научно-технологический процесс в ХХ веке и бурное внедрение технологий во все сферы жизни сделали актуальным появление нового института в области государственного управления и правового регулирования — технологической оценки. Этот институт во многом пересекается с иными оценочными процедурами в сфере государственного управления и права, в том числе с оценкой регулирующего воздействия (ОРВ). После принятия ООН в 2011 году Руководящих принципов предпринимательской деятельности в аспекте прав человека и их развития в 2016 году в Рекомендации комитета министров Совета Европы о правах человека и бизнесе возросло значение оценки того воздействия, которое внедрение технологий оказывает на права человека.
Практически все существующие оценочные процедуры подразумевают либо широкую экспертную дискуссию, либо публичные консультации для неограниченного круга лиц, что делает их достаточно эффективным инструментом выработки оптимальных управленческих и регуляторных решений на основе баланса позиций всех заинтересованных сторон. Принятый в России спустя 10 лет после внедрения ОРВ федеральный закон от 31.07.2020 No 247-ФЗ «Об обязательных требованиях в Российской Федерации» наконец-то создал для ОРВ законодательную основу, что в перспективе позволит развивать эту процедуру при введении любых обязательных требований к применению цифровых технологий.
2020 год стал драйвером развития института оценки. 8 апреля 2020 года комитет министров принял рекомендацию государствам — членам Совета Европы, в которой обсуждается влияние алгоритмических систем на права человека. Документ предлагает этим государствам пересмотреть в соответствии с рекомендацией свою законодательную базу, политику и практику в отношении закупки, проектирования, разработки и развертывания алгоритмических систем и регулярно оценивать эффективность принимаемых мер с участием всех заинтересованных сторон. Также рекомендовано с помощью законодательных, регулирующих и надзорных структур сделать так, чтобы развертывание алгоритмических систем, в разработке которых участвовали субъекты частного сектора, соответствовало законодательству и отвечало обязательствам стран по соблюдению прав человека (обязательствам, зафиксированным в Руководящих принципах предпринимательской деятельности в аспекте прав человека ООН, региональных и международных стандартах).
Как мы уже писали ранее, именно Руководящие принципы ООН заложили основу для внедрения оценки воздействия на права человека.

Названный выше проект «Рекомендация по этическим аспектам ИИ» ЮНЕСКО требует (п. 58), чтобы органы власти и управления проводили самостоятельную оценку имеющихся и предлагаемых к внедрению систем ИИ, в том числе для определения целесообразности применения этих систем. Государствам следует создать механизмы, которые обеспечат соблюдение прав человека, мониторинг и надзор в том, что касается социально-экономических последствий применения ИИ-систем. Также рекомендуется создать и другие механизмы управления, в том числе:

  • независимые органы по вопросам защиты данных;

  • структуры надзора на уровне секторов;

  • государственные органы надзора в сфере закупки ИИ-систем для чувствительных с точки зрения прав человека сфер использования, таких как система уголовного правосудия и независимого судопроизводства, правоохранительная деятельность, социальное обеспечение, занятость, здравоохранение.
17 марта 2021 года комитет министров Совета Европы принял Декларацию о рисках принятия решений с помощью компьютерных программ и алгоритмов искусственного интеллекта в области социального обеспечения. В ней комитет министров обращает внимание на ответственность и подотчетность субъектов ИИ, проектирующих, развертывающих или оценивающих системы ИИ в случаях, когда не соблюдаются правовые нормы или причинен ущерб.
В России внедрение указанной оценки пока предусматривается только на уровне документов стратегического планирования. Упомянутая выше Концепция развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 года устанавливает, что достижение цели и задач регулирования отношений, складывающихся в связи с разработкой и применением систем ИИ и робототехники, должно осуществляться с учетом принципов, перечисленных выше (см. раздел 5.1.2). Отметим в Концепции обязательность обоснованной оценки возникающих при применении ИИ и робототехники рисков причинения вреда жизни и здоровью человека, угроз безопасности государства и принятие мер, направленных на минимизацию таких рисков и угроз.

Актуальным примером документа, посвященного оценке воздействия систем ИИ, является новый стандарт IEEE — Института инженеров электротехники и электроники (Institute of Electrical and Electronics Engineers). Этот институт разрабатывает стандарты для электронных и электротехнических устройств, в том числе и для сферы применения ИИ. Стандартизация в области ИИ и данных ведется в институте силами множества ученых со всего мира. Так, в разработке основного установочного документа Ethically Aligned Design приняли участие 700 экспертов: программисты и специалисты по ИИ, философы, культурологи, психологи, нейроученые и другие специалисты. Свой вклад вносит и российская Рабочая группа IEEE по тематике «Этика и искусственный интеллект».
В разработке сейчас находится более 10 стандартов IEEE, так или иначе связанных с этическими вопросами создания и использования ИАС. В 2021 году принят стандарт IEEE 7010 «Рекомендованная практика оценки воздействия автономных систем и систем искусственного интеллекта на благополучие человека», который содержит набор метрик для оценки такого воздействия (Well-being Impact Assessment, WIA).
WIA — это инструмент, позволяющий тем, кто создает ИАС, учитывать фактор благополучия человека на всех этапах жизненного цикла системы и на всех уровнях — индивидуальном, популяционном и социетальном (то есть на уровне, где общество рассматривается как единое целое). Стандарт 7010 предназначен для дизайнеров, разработчиков, инженеров, программистов и других специалистов, создающих такие системы и работающих с ними.

Стандарт помогает:

  • определить понятие «благополучие человека» в отношении ИАС;

  • определить способы измерения влияния ИАС на благополучие человека с момента проектирования до окончания жизненного цикла системы;

  • управлять развитием ИАС;

  • определить болевые точки;

  • подготовить стратегии минимизации рисков;

  • оценить эффективность системы;

  • выявить целевых и нецелевых пользователей, а также намеренные и ненамеренные способы применения и факты влияния ИАС на благополучие человека.
В основе WIA как инструмента оценки лежит итеративный подход, который обеспечивает непрерывное получение информации о влиянии системы на благополучие человека в ходе ее применения, а значит, и непрерывный цикл совершенствования системы.

Рисунок 18. Методика оценки воздействия ИАС на благополучие человека (Well-being Impact Assessment, WIA)

Процесс состоит из нескольких этапов (activities), которые включают в себя конкретные задачи (tasks). Каждый этап завершается чек-листом с закрытыми вопросами («да/нет»). Ядро WIA представляет собой дашборд показателей, распределенных по 13 группам, которые охватывают все сферы благополучия человека. Весь процесс WIA, таким образом, можно представить в виде цикличной схемы (рисунок 18).

5.3.4 СТАНДАРТЫ ISO

Международная организация по стандартизации (International Organization for Standardization, ISO, ИСО) играет ключевую роль в развитии международной стандартизации. В деятельность этой независимой организации вовлечены национальные органы 165 стран. Национальные органы состоят из экспертов, которые делятся лучшими практиками и разрабатывают основанные на консенсусе стандарты.
Международные стандарты способствуют внедрению инноваций и преодолению глобальных трудностей. Кроме того, стандарты помогают решать вопросы, связанные с оценкой различных технологий или систем, и преодолевать технические барьеры при коммерциализации систем. Стандарты ИСО являются добровольными; они не включают договорные, юридические или законодательные требования, не заменяют собой национальные законы — последние всегда имеют приоритет.
Вопросами И И в ИСО занимается Подкомитет 42 (SC 42), который был создан в 2017 году и структурно входит в Объединенный технический комитет 1 «Информационные технологии» (JTC 1). Сейчас этот комитет разрабатывает более 3 тыс. стандартов, из которых 504 направлены на достижение целей в области устойчивого развития. Подкомитет 42 «Искусственный интеллект» имеет семь опубликованных стандартов и 22 стандарта в стадии разработки. Из уже опубликованных пять относятся к большим данным и ИИ, один — к вопросам робастности нейронных сетей, один посвящен доверию. В течение года подкомитет 42 завершит работу над стандартом «Концепции и терминология в области искусственного интеллекта» (ISO/IEC DIS 22 989 Information technology — Artificial intelligence — Artificial intelligence concepts and terminology), публикация документа намечена на весну 2022 года. Стандарты, имеющие отношение к этике, рассматриваются в рабочей группе подкомитета, которая занимается вопросами доверия к ИИ (WG3). Среди проектов WG3 выделим три наиболее значимых для понимания этических аспектов развития ИИ.
"Искусственный интеллект. Этические и социальные проблемы. Общие положения" (ISO/IEC AWI TR 24 368 Information technology — Artificial intelligence — Overview of ethical and societal concerns).
В проекте будет расширена терминология в области ИИ применительно к этическим аспектам и проанализирована взаимосвязь вопросов этики с общими задачами и проблемами развития технологий. Документ будет содержать перечисление международных документов, которые имеют отношение к этике ИИ, в том числе в области обеспечения прав человека и социальной ответственности вовлеченных лиц. Будут проанализированы принципы развития технологий на основе ИИ, представлены способы построения социально приемлемых систем ИИ в контексте вопросов этики.
«Смещения в системах искусственного интеллекта и системах поддержки принятия решений с использованием искусственного интеллекта» (ISO/IEC DTR 24 027 Information technology — Artificial Intelligence (AI) — Bias in AI systems and AI aided decision making).
Будут описаны методы измерения и оценки степени смещений с целью их устранения и снижения факторов уязвимости систем на разных этапах. Будут представлены источники и общая классификация видов смещений, описаны возможности их положительного, нейтрального или отрицательного влияния на принимаемые решения. Подготовка стандарта должна завершиться в 2021 году.
«Искусственный интеллект. Доверенность в искусственном интеллекте. Общие положения» (ISO/IEC TR 24 028:2020 Information technology — Artificial intelligence — Overview of trustworthiness in artificial intelligence) — проект стандарта, опубликованный в мае 2020 года.
Его цель — анализ факторов, которые могут влиять на доверенность систем ИИ. В документе кратко рассматриваются существующие подходы, которые могут поддерживать или повышать доверие к техническим системам. Перечислены, в частности, возможности установления доверия к системам ИИ через прозрачность, объяснимость, контролируемость. Разобраны отдельные инженерные аспекты, типичные угрозы и риски для систем ИИ, методы и практики смягчения негативных последствий на разных этапах жизненного цикла систем. Приведены общие способы достижения доверенности и оценки доступности, устойчивости, надежности, точности, безопасности и конфиденциальности систем ИИ.

ВЫВОДЫ. ПЯТЬ ТЕЗИСОВ ОБ ЭТИЧНОМ ИИ

1. Этика И И как дисциплина — это область прикладной этики и направление философии, которые изучают этические вопросы, связанные с разработкой, внедрением и использованием ИИ; этика ИИ как практика — это поведение человека и взаимодействие людей между собой в контексте вопросов использования ИИ на всех этапах жизненного цикла.
2. Доверие к системам ИИ — важнейшее условие их применения при решении ответственных задач обработки данных. Основные компоненты доверенного ИИ — проверяемость (объяснимость), управляемость, стабильность, отказоустойчивость, безопасность и робастность.
3. Значительную часть компонентов доверенного ИИ можно считать реализацией человекоцентричного подхода к его разработке и внедрению; это относится и к трем группам принципов (прозрачность, надежность, человекоцентричность), на которых строится современный ИИ.
Цитата
Прежде чем идти в этичность ИИ, надо предотвратить преступность и не допускать утечку данных. Если это требование из формальности не превратится в действительно жесткое регулирование с серьезнейшей ответственностью в случае утечки, то говорить об этике в цифровых системах нет смысла. Мы можем принять хоть все стандарты всех организаций, которые хоть что-то делают на эту тему, но если данные будут вот так легко утекать, то какой смысл во всем этом?

Павел Готовцев, координатор российской Рабочей группы IEEE по тематике «Этика и искусственный интеллект»
4. Объяснимость и прозрачность ИИ подразумевает среди прочего, что пользователю понятно объяснили, с каким типом интерфейса он общается в данный момент: с человеком, с человеком, которому ассистирует ИИ, или только с ИИ. В частности, этот аспект актуален для массовых государственных сервисов, в которых используются чат-боты и голосовые помощники (например, для записи к врачу).
5. Этические принципы создания и применения ИИ в России затрагиваются в таких документах, как Национальная стратегия развития искусственного интеллекта на период до 2030 года, федеральный проект «Искусственный интеллект» национальной программы «Цифровая экономика Российской Федерации», Концепция регулирования технологий ИИ и робототехники до 2024 года. Ведется работа над российским универсальным кодексом ИИ. На международном уровне ключевые игроки в области этики ИИ — это Совет Европы, ООН (в первую очередь ЮНЕСКО), ОЭСР, ISO, IEEE, Европейский союз.
Цитата
У нас создан Национальный комитет по этике искусственного интеллекта при Комиссии Р Ф по делам ЮНЕСКО, но это только первый шаг. Наши органы госуправления должны занимать более активную позицию по участию России в разработке международных этических стандартов. Многие представители академической среды по разным причинам перешли в бизнес и в госорганы, но оставили за собой позиции в вузах или академических институтах. Пока именно они наиболее активны в обсуждении вопросов этики ИИ. Задача в том, чтобы российский бизнес тоже занял внятную консолидированную позицию. Пока заметную активность в этом направлении проявляет только Сбер, хотелось бы услышать мнения других компаний. Если сейчас выработать согласованную позицию, которая будет устраивать большинство сторон в большинстве вопросов, это будет комфортно для всех.

Максим Федоров, вице-президент в области ИИ и математического моделирования Сколковского института науки и технологий

Unboxing Artificial Intelligence: 10 steps to protect Human Rights. Commissioner for Human Rights Recommendations.
Human-Centered AI // Stanford University.
AI Watch // European Commission.
G20 Osaka Leaders' Declaration // Ministry of Foreign Affairs of Japan.
Голодникова А. Е., Ефремов А. А., Цыганков Д. Б. Под знаком «регуляторной гильотины»: как разорвать замкнутый круг дерегулирования и ре-регулирования? // Закон. 2021. No 2. С. 105−117.
Этика и «цифра»: этические проблемы цифровых технологий. В 2 т. М.: РАНХиГС, 2020. Т. 1. С. 82−83.
Стандарты на этичный искусственный интеллект // Этика и «цифра»: Этические проблемы цифровых технологий. В 2 т. М.: РАНХиГС, 2020.
Повестка дня в области устойчивого развития на период до 2030 года, где указаны 17 целей устойчивого развития, была единогласно принята на саммите ООН в сентябре 2015 года.
Как правило (в том числе и в настоящем докладе), в качестве перевода англ. bias используются слова «предвзятость, предубежденность, необъективность».
Указ Президента Р Ф от 10.10.2019 No 490 «О развитии искусственного интеллекта в Российской Федерации» // ГАРАНТ.ру.