5. ДОВЕРЕННЫЙ ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ: КОНЦЕПЦИЯ И ДОКУМЕНТЫ

— Любая новая техника требует в начальной стадии жертв. Мольтерис сконструировал одноместный времяходик безо всяких предохранительных устройств. Он поступил точь-в-точь как тот средневековый мужик, который, нацепив крылья, влез на колокольню и тут же разбился.
С. Лем. Звездные приключения Ийона Тихого

5.1 РАЗВИТИЕ ИИ В КОНТЕКСТЕ ЭТИКИ

Авторы раздела:
П. М. Готовцев
А. В. Незнамов
А. Г. Игнатьев
Е. Г. Потапова
М. В. Федоров
Время чтения: 17 мин.
Из всех рассматриваемых в докладе тем этика искусственного интеллекта — наиболее обсуждаемая в СМИ и вызывающая наибольшие споры. Причины этого лежат как в области социальных представлений об ИИ как о чем-то совершенно особенном и уникальном, так и в объективных отличиях этики ИИ от прочих дисциплин.

5.1.1 ДВА АСПЕКТА ЭТИКИ В ОБЛАСТИ ИИ

Принципиально важно, что «система ИИ способна самостоятельно принимать решения, касающиеся человека, и анализировать данные в таких объемах и с такой скоростью, как человек делать не в состоянии (следовательно, человек не может физически проверить верность решений)». Тем самым одной из основных проблем, связанных с интеллектуальной автономной системой (ИАС), является определение того, насколько решения, принятые системой в рамках ее автономности, соответствуют этическим нормам. Не менее значим и второй аспект этики в области ИИ — риски и социальные последствия внедрения ИАС (например, риск безработицы при замене тех или иных профессий ИС, риски дискриминации и предубежденности алгоритмов и т. д.). Два разных аспекта этики в области ИИ представлены на рисунке 12. Отметим также, что, хотя мы и говорим об этике в области ИИ как об отдельной сфере, ее ни в коем случае нельзя рассматривать обособленно от вопросов техноэтики и этики науки, уже десятилетиями обсуждаемых в научном и практическом ключе, и от широкого спектра проблем, связанных с взаимодействием людей между собой, с обществом и государством в связи с использованием ИИ.
Первый аспект (принятие решений) состоит в том, что отдельные виды систем ИИ, созданные разработчиками, могут обладать значительным уровнем автономности, самосовершенствоваться, реструктурироваться, улучшать свои параметры и пр. Создавая ИАС, которая принимает критически важные для человека решения, мы хотим получить гарантии, что эти решения этичны, а для этого должны привнести этичность в саму технологию ИИ. Сложность состоит в том, что моральный выбор — это выбор, который определяется не четкими нормами закона, а правилами, принципами, личными взглядами и всем тем, что описывается категориями «хорошо» или «плохо». Более того, набор этих принципов сильно зависит как от исторического периода, так и от конкретного социума. Соответственно, его сложно формализовать и заложить в ИИ, он требует обсуждения с обществом, специалистами в области гуманитарных наук (философами, социологами, историками, антропологами), представителями религиозных конфессий.

Рисунок 12. Основные аспекты этики ИАС

Второй аспект (внедрение) подразумевает анализ и предотвращение этических коллизий, возникающих в процессе применения ИИ. К таким коллизиям относятся нарушение приватности, возможная дискриминация, социальное расслоение, проблемы трудоустройства и т. д. Отдельно стоит тема профессиональной этики разработчиков систем ИИ; она также требует рассмотрения, уже создаются этические кодексы и рекомендации для разработчиков.
Для полноты картины приведем три разноплановых определения этики ИИ из различных источников.
Врезка
Этика в области ИИ — это область прикладной этики, в которой изучаются этические вопросы, связанные с разработкой, внедрением и использованием искусственного интеллекта. Основная задача этики ИИ — определить, как ИИ может развиваться и какие проблемы, касающиеся благополучия человека (в том числе качества жизни, автономии и свободы, необходимой для существования демократического общества), могут возникнуть в связи с его развитием. (Группа экспертов высокого уровня по ИИ Еврокомиссии)
Врезка
Этика в области ИИ — это организационная конструкция (корпоративные ценности, политики, этические кодексы и руководства), которая разграничивает «правильное» и «неправильное» в отношении использования ИИ. (Deloitte)
Врезка
Этика в области ИИ — это комплекс ценностей, принципов и методов, основанных на общепринятых критериях добра и зла, который определяет моральное поведение при разработке и использовании технологий ИИ. (Институт Тюринга)
Ряд тем, важных для понимания этики ИИ, был рассмотрен в докладе «Этика и ''цифра'': этические проблемы цифровых технологий» (включая риски неэтичного применения ИИ, вопросы создания машинной этики, регулирование ИИ); в этом разделе речь пойдет в основном об изменениях в этой области, которые произошли с момента выхода первого доклада, а также о нескольких концепциях в области этики ИИ, которые не обсуждались нами ранее.
Цитата
Сегодня в некоторых проектах документов по развитию ИИ делается попытка создать и формализовать некую новую «цифровую этику» для человека и машины; при этом этику в области ИИ рассматривают как вновь возникшее и обособленное явление цивилизационного развития, отбрасывая не только многовековой философский дискурс, идущий от Сократа, Платона и Аристотеля, но и важнейшие исследовательские наработки в технонауке и философии техники. Не всегда учитываются и современные нормы и положения, уже разработанные в информационной этике, в компьютерной этике, в этических кодексах для инноваторов, в стандартах социально ответственного поведения.

Андрей Игнатьев, руководитель направления аналитики Центра глобальной ИТ-кооперации
Другой важной проблемой является научно выверенное и обоснованное понимание места и роли этики в общем процессе развития и регулирования технологии. При формировании инструментов регулирования не должен уходить на второй план традиционный инженерно-технический подход, основанный в том числе на инструментальной оценке рисков, обеспечении безопасности, методиках измерения и тестирования. Поэтому краткий обзор документов, представленный в разделе 5.3, содержит не только регуляторные документы и кодексы, но и технические стандарты.
За последние два года в общественном сознании произошел перелом: в России о цифровой этике заговорили в высоких кабинетах, она всерьез заинтересовала университеты и компании. Идет работа над несколькими важными проектами, и есть шанс, что в скором времени мы увидим интересные научные публикации в этой области.
В России действует сообщество экспертов в области этики ИИ, которое объединяет представителей науки, бизнеса, образования. Эта область развивается и в научном плане, и в плане стандартизации (см. раздел 5.3), и в поле общественных дискуссий. Российские специалисты активно включились в эту работу и в мировой науке, и в нормативном регулировании (обсуждаются российские стандарты, стандарты ISO и IEEE выпускаются с российским участием и т. д.). На нескольких крупных конференциях с участием разработчиков, исследователей, представителей бизнеса обсуждалась этика ИИ; известные лица, в том числе президент России, говорили об этом в своих выступлениях.
Из новых трендов следует отметить сегментацию исследований: появляются работы, посвященные этике применения ИИ в узких областях, в первую очередь в области медицины (см. об этом раздел 3.2). Самый яркий пример — это ответственное использование результатов ИИ обработки так называемых brain data (данных ЭЭГ, фМРТ и т. п.). Если считать чувствительными, к примеру, данные о перемещениях человека, то максимально чувствительными будут данные, полученные от медицинских и немедицинских нейротехнологических устройств.
Другие очевидные тренды — это интеллектуальные программы для смартфонов и прочих смарт-устройств; автономные машины и все связанные с ними этические вопросы; доставка дронами; «умный» город и системы слежения за городом. Активно развивается анализ метаданных, особенно собираемых с носимых устройств и «умных» домов.
Кейс
Во многих проектах, предложенных на финском конкурсе устойчивого развития городов Helsinki Energy Challenge, ключевым элементом была интеллектуальная система управления расходом тепла и электроэнергии. ИИ стал важнейшим элементом управления тепловыми сетями, позволив исключить ископаемое топливо из систем теплоснабжения и электроснабжения. Без интеллектуальных систем управления сегодня было бы сложно добиться максимума эффективности от подобных технологий. За счет тонкого и максимально точного регулирования, реализуемого с помощью ИИ, такие системы становятся окупаемыми и начинают конкурировать с ископаемым топливом.
Возникает новый аспект приватности — все, что относится к жилищу: по датчикам контроля температуры и освещения можно узнать, как часто жилец бывает дома, что он там делает и т. д. Эта область приватности относится к описанному выше (см. раздел 2.1.2) анализу метаданных, когда максимальное количество данных о человеке — активность в соцсетях, данные датчиков, видеокамер и т. д. — собирают, совмещают и получают полную картину его жизни, деятельности, эмоций и контактов.
Об этом авторы раздела подробно писали в предыдущем докладе: Зачем искусственному интеллекту этика? // Этика и «цифра»: этические проблемы цифровых технологий. В 2 т. М.: РАНХиГС, 2020.
С точки зрения теории и методологии наиболее корректным является термин «интеллектуальная автономная система», однако в связи с широким распространением терминов «ИИ» и «система ИИ» в докладе встречаются все три варианта.
Ethics guidelines for trustworthy AI // European Commission.
Президент России В. В. Путин принимал участие в международных конференциях AI Journey Сбербанка, которые состоялись в 2019 и 2020 годах. См.: Конференция по искусственному интеллекту // Президент России. за 2019 год и 2020 год
Понятие приватности // Этика и «цифра»: этические проблемы цифровых технологий. В 2 т. М.: РАНХиГС, 2020.

5.1.2 ПОЛИТИКА РОССИИ В СФЕРЕ ИИ

В августе 2020 года президиум правительственной комиссии по цифровому развитию под руководством вице-премьера Д. Н. Чернышенко утвердил федеральный проект «Искусственный интеллект» национальной программы «Цифровая экономика Российской Федерации». Основаниями для разработки проекта послужили Концепция регулирования технологий ИИ и робототехники до 2024 года и Национальная стратегия развития искусственного интеллекта на период до 2030 года. Задачи, поставленные Национальной стратегией, вошли в федеральный проект:

  1. поддержка научных исследований;
  2. создание комплексной системы правового регулирования, разработки и развития программного обеспечения;
  3. повышение доступности и качества данных;
  4. увеличение доступности аппаратного обеспечения;
  5. рост обеспеченности квалифицированными кадрами;
  6. повышение уровня информированности населения.

Проект состоит из нескольких блоков, за которые отвечают разные министерства: Минэкономразвития курирует мероприятия по развитию экосистемы ИИ, Минкомсвязи — мероприятия по внедрению ИИ и формированию наборов данных, Минпромторг реализует разработку отечественных аппаратных комплексов и микросхем. В конце 2020 года вице-премьер Д. Н. Чернышенко дал поручение Минцифре создать реестр готовых решений в сфере ИИ для внедрения в федеральных ведомствах, а всем ФОИВ — сформировать дата-сеты для ИИ. Минэнерго, Минпромторг, Минкультуры, Минобрнауки, Росреестр, Россельхознадзор, ФНС уже представили проекты по внедрению ИИ-решений в своих ведомствах и формированию отраслевых дата-сетов. В перечень решений на основе ИИ, которые будут внедряться в 2023−2024 годах, входят в том числе:

  1. Минздрав — технологии анализа рентгеновских снимков и КТ-изображений для выявления новообразований и признаков COVID-19;

  2. МВД — технологии идентификации лиц, анализа биоматериала, выявления взаимосвязей между событиями;

  3. МЧС — технологии анализа спутниковых снимков для выявления ЧС, создание голосовых помощников;

  4. Росреестр — технологии анализа изображений для классификации объектов капитального строительства.
Разработки в области создания доверенных систем и этичного ИИ относятся к первой из шести задач — поддержке научных исследований. Также в федеральном проекте вопросы этики ИИ отражены в ряде мероприятий. В частности, планируется широкая дискуссия по ключевым вопросам этики применения ИИ в формате ежегодного форума «Этика применения ИИ» (первый форум должен состояться в 2021 году). Идея в том, чтобы дать возможность высказаться всем желающим: этика в области ИИ пока не сформирована, и формировать ее должно общество в целом. Федеральный проект предполагает развитие международного сотрудничества, в том числе в части определения правовых этических норм (Россия активно участвует в этом процессе, см. раздел 5.3.2). Еще один ключевой документ — Концепция регулирования технологий ИИ и робототехники до 2024 года, которая, в частности, закрепила приоритет базовых этических норм при разработке технологий ИИ:
  • регуляторное воздействие, основанное на рискориентированном междисциплинарном подходе и предусматривающее принятие ограничительных норм в случае, если применение технологий ИИ и робототехники (РТ) несет объективно высокий риск причинения вреда участникам общественных отношений, правам человека и интересам общества и государства;

  • расширение применения инструментов урегулирования и саморегулирования, формирование кодексов (сводов) этических правил разработки, внедрения и применения технологий ИИ и РТ;

  • человекоориентированный подход, предусматривающий в качестве конечной цели развития технологий ИИ и РТ обеспечение защиты гарантированных российским и международным законодательством прав и свобод человека и повышение качества жизни граждан;

  • оценка воздействия технологий и систем ИИ и РТ на все сферы жизни человека, общества и государства, основанная на научно выверенных исследованиях с подключением широкого круга ученых;

  • обеспечение баланса интересов разработчиков, потребителей и иных лиц в сфере ИИ и РТ, а также определение границ их ответственности за возможные негативные последствия использования технологий;

  • оценка при разработке НПА и иных документов в сфере ИИ и РТ социально-экономических последствий и рисков в условиях постоянного развития технологий, учет как положительного, так и отрицательного международного опыта регулирования.

Развитие технологий должно основываться на базовых этических нормах и предусматривать:

  • приоритет благополучия и безопасности человека, защиты его основополагающих прав и свобод;

  • запрет на причинение вреда человеку по инициативе систем ИИ и РТ;

  • подконтрольность человеку (в той мере, в которой это возможно с учетом требуемой степени автономности систем ИИ и РТ);

  • проектируемое соответствие закону, в том числе требованиям безопасности (применение систем ИИ не должно с ведома разработчика приводить к нарушению правовых норм);

  • недопущение противоправной манипуляции поведением человека.
У концепции есть только два аналога: «Белая книга об искусственном интеллекте: европейский подход к совершенству и доверию» и указ президента США, подписанный в декабре 2020 года, об этических границах использования ИИ в американском госуправлении. В августе 2020 года правительство России объявило о начале создания рабочих документов по реализации концепции; назначенные руководители цифровой трансформации (РЦТ) приступили к разработке планов и мероприятий.
Среди основных отечественных документов следует также упомянуть ряд стандартов. В 2019 году в России создан Технический комитет по стандартизации No 164 «Искусственный интеллект» (ТК 164). В его состав входит подкомитет «Искусственный интеллект в здравоохранении», разрабатывающий национальные и международные стандарты, которые распространяются на требования к разработке, проведению испытаний, а также применению и эксплуатации медицинского программного обеспечения (ПО), работающего на основе ИИ (подробнее о «цифре» в медицине см. раздел 3.2).
В 2019 году принят национальный стандарт «Информационные технологии. Большие данные. Обзор и словарь». Также утверждена Перспективная программа стандартизации по приоритетному направлению «Искусственный интеллект» на период 2021—2024 годов. К числу перспективных стандартов относится рассмотренный выше ГОСТ Р 59 276−2020 «Системы искусственного интеллекта. Способы обеспечения доверия. Общие положения».
Цитата
Европа настроена на жесткое регулирование даже в тех вопросах, где нет очевидного консенсуса. Российский путь пока выглядит более адекватным. Анализируя деятельность международных органов (ЮНЕСКО, Совета Европы, ОЭСР, ОБСЕ) и международного агентства по стандартизации, я понимаю, что в России пока удивительным образом складывается очень здравое восприятие ситуации и регулятором, и бизнесом.

Андрей Незнамов, управляющий директор Центра регулирования ИИ ПАО «Сбербанк»
Государству и обществу равно нужны и этические кодексы, и стандарты, гайдлайны, практические руководства. Важно понимать разницу между ними и уметь использовать разные инструменты во благо. Так, кодекс этики ИИ — это высокоуровневый и короткий документ, который должен задавать опорные точки, а технические стандарты должны быть, наоборот, подробными: они позволяют настолько детально описать ситуацию, насколько это нужно в данный конкретный момент для данной конкретной технологии.
Кейс
В России первой этической инициативой крупного бизнеса стал кодекс этики И И Сбера. В нем описаны принципы этики в области ИИ: контролируемость и управляемость систем ИИ, прозрачность и предсказуемость функционирования, стабильность и надежность систем ИИ, ответственное применение ИИ, непредвзятый ИИ.
Одна из задач федерального проекта «Искусственный интеллект» касается регулирования этических вопросов. В последний год в России экспертным сообществом и представителями бизнеса ведется разработка универсального Кодекса этики в области ИИ. Сам кодекс (или его проект) пока не опубликован, но представление о его содержании можно получить из общественных обсуждений, в частности на секции «Новые технологии. Искусственный интеллект и этика» Российского форума по управлению интернетом (RIGF 2021). Исследователи и инженеры из России активно участвуют в больших международных проектах, связанных с этикой ИАС и инициированных ЮНЕСКО, Еврокомиссией, крупнейшими международными организациями по стандартизации (ISO, IEEE), о чем будет подробнее сказано далее.
Утверждена Указом Президента Р Ф от 10.10.2019 No 490 «О развитии искусственного интеллекта в Российской Федерации».
Развитие искусственного интеллекта // Минэкономразвития Р Ф.