5.2 СПОСОБЫ ОБЕСПЕЧЕНИЯ ПРИВАТНОСТИ

Авторы раздела:
П. М. Готовцев
Е. Г. Потапова
М. В. Федоров
Время чтения: 23 мин.
Доверенный искусственный интеллект — одна из ведущих концепций в области этичного ИИ. Термин «доверенный» используется в ряде международных и российских документов. Доверенный ИИ отвечает таким критериям, как прозрачность, безопасность, робастность, техническая устойчивость и другие.

5.2.1 КОНЦЕПЦИЯ PBDD: PRIVACY BY DESIGN И PRIVACY BY DEFAULT

Понятие доверенного (англ. trustworthy, буквально 'заслуживающий доверия, достойный доверия') искусственного интеллекта зафиксировано в «Руководстве по этике для надежного ИИ» Группы экспертов высокого уровня по искусственному интеллекту Еврокомиссии (Ethics guidelines for trustworthy AI, 2019).

Согласно этому документу, доверенный ИИ должен обладать следующими базовыми характеристиками:

  • законный — соответствующий применимому законодательству;
  • этичный — соответствующий этическим принципам и ценностям;
  • робастный — надежный с технической точки зрения и разработанный с учетом актуального социального контекста.
В России понятие доверенного ИИ с марта 2021 года отражено в стандарте ГОСТ Р 59 276−2020 «Системы искусственного интеллекта. Способы обеспечения доверия. Общие положения».
Врезка
Доверие к системам искусственного интеллекта является важнейшим условием, определяющим возможность применения этих систем при решении ответственных задач обработки данных. Примерами таких задач являются поддержка принятия врачебных решений, беспилотное управление транспортными средствами и некоторые другие, ошибки при решении которых могут привести к тяжким последствиям, связанным с угрозой жизни и здоровью людей, серьезным экономическим и экологическим ущербом.
Врезка
Доверие к системе искусственного интеллекта — уверенность потребителя и, при необходимости, организаций, ответственных за регулирование вопросов создания и применения систем искусственного интеллекта, и иных заинтересованных сторон, в том, что система способна выполнять возложенные на нее задачи с требуемым качеством.
Врезка
Доверенная система искусственного интеллекта — система искусственного интеллекта, в отношении которой потребитель и, при необходимости, организации, ответственные за регулирование вопросов создания и применения систем искусственного интеллекта, проявляют доверие.
Доверенный ИИ — это важная, интересная, многогранная тема. Разработчикам предстоит создать технологии, которым можно доверять в техническом плане (они надежны, устойчивы, безопасны) и психологически. Также к области доверенного ИИ относятся вопросы, связанные с риском внедрения технологий: сама по себе технология может быть безопасной, надежной и устойчивой, но ее внедрение порождает, например, экологические риски, риски безработицы и т. д.
Любое регулирование ИИ должно принимать в расчет особенности ИАС, отличающие их от других программ и показанные на рисунке 13. Кто отвечает за принятые решения, когда речь идет об ИИ? Нормативная база по ИАС предполагает, что отвечает либо оператор системы, либо разработчик, если ошибка не зависит от обслуживания, а была заложена изначально. Есть и противоположное мнение, согласно которому ответственность несет сама ИАС, но большинство экспертов, а также международные организации, занимающиеся стандартизацией и регулированием ИИ, настаивают на обязательной ответственности человека.

Рисунок 13. Отличия систем ИИ от большинства систем с фиксированным алгоритмом функционирования

5.2.2 КОМПОНЕНТЫ ДОВЕРЕННОГО ИИ

Основные компоненты доверенного ИИ представлены на рисунке 14: это проверяемость, управляемость, стабильность, отказоустойчивость, безопасность и робастность. Перечисленные и некоторые другие компоненты будут подробно рассмотрены ниже.
1. Проверяемость (прозрачность, объяснимость) ИИ. Проверяемость подразумевает, что ИАС не является черным ящиком. Основная дискуссия идет в области использования результатов обученных нейросетей. У разработчиков нет четкого понимания, почему нейросеть, обученная на той или иной выборке, принимает то или иное решение. Известно, что в системе, основанной на дереве решений, ошибки следует искать за пределами дерева решений; в случае нейросетей определить пространство ошибок на текущем уровне развития науки и технологий невозможно. Во многих отраслях, особенно с максимально высоким риском (аэрокосмическая, атомная и т. д.), нейросети не применяют для критически важных систем. Например, по одной из версий катастрофы Boeing 737 Max произошли из-за излишнего доверия к нейросетям в конструкции этих самолетов.
Кейс
Две авиакатастрофы Boeing 737 Max — в Индонезии и Эфиопии — произошли с перерывом всего в пять месяцев и унесли 346 жизней. Причиной катастроф специалисты назвали недостатки ПО системы автоматизированного пилотирования MCAS, которые могли привести к тому, что самолет вскоре после взлета вошел в штопор.
Объяснимость и прозрачность ИИ подразумевает среди прочего четкое и внятное объяснение для пользователя, с каким типом интерфейса он общается в данный момент: с человеком, с человеком, которому ассистирует ИИ, или только с ИИ.
2. Управляемость. Интеллектуальные системы должны быть управляемы человеком. Он должен иметь возможность применять весь спектр воздействий, от выключения или включения системы до управления в ручном режиме. Принципы работы системы и принципы ее управления должны быть понятны — это часть человекоцентричного подхода.

Рисунок 14. Компоненты доверенного ИИ

Врезка
Согласно одной из гипотез, нейросети в принципе работают как черный ящик; это их неотъемлемое свойство, не требующее исправления. Сторонники этой гипотезы проводят аналогию с людьми: мы тоже черные ящики друг для друга, но мы при этом сосуществуем, принимаем решения и т. д., значит, люди и ИАС могут общаться таким же способом, как и люди между собой.

На это можно возразить, что, во-первых, люди не такие уж черные ящики, мы неплохо понимаем друг друга. Второй момент — люди прошли через горнило биологической и социальной эволюции, и в каждом из нас огромное количество механизмов коррекции ошибок, от репарации ДНК каждую миллисекунду до нейропластичности, культурных и прочих аспектов. Другое дело — системы, написанные никому не известными программистами (известно, что хороший программист делает одну ошибку на 200 строк кода). Если мы делегируем важные решения устройствам, в которых заведомо будут ошибки, люди перестанут им доверять, потому что люди не доверяют черному ящику.

И третий момент: технологии продолжают развиваться, исследователи решат проблему черного ящика или найдут другие решения, поэтому смиряться с непрозрачностью алгоритмов нельзя.
3. Стабильность, безопасность, отказоустойчивость. Для технической устойчивости важны надежность инфраструктуры (в первую очередь доступность интернета), которая требует постоянной поддержки, и наличие альтернативных аналоговых путей. Должен быть аналоговый путь решения всех вопросов, связанных с функционированием гражданина, а остальные пути должны не заменять его, а давать более простую альтернативу.
Врезка
Математическая теория катастроф утверждает, что динамическая система устойчива в том случае, если она способна игнорировать малые изменения. Если же изменения нарастают и приводят к качественному скачку (катастрофе), система теряет устойчивость и ее развитие становится труднопредсказуемым. Выделяют несколько признаков неустойчивости системы, в том числе несимметричность, когда один из вариантов развития системы получает преимущество. Чем больше разнообразие внутри системы, тем ниже вероятность катастроф. Сложная экосистема современных цифровых технологий также подчиняется этому правилу.
Если принцип разнообразия нарушен и доминирует какая-то одна альтернатива, даже небольшое событие способно существенно изменить состояние системы и вызвать катастрофу. Известны случаи пожаров и затоплений, которые приводили к приостановке производства только одного компонента в экосистеме, но это влияло на всю цепочку поставок, на стоимость и доступность конечной продукции.
Кейс
В 2013 году сильный пожар на заводе в китайском городе Уси, где производили 10% мирового объема чипов DRAM (модулей памяти, широко используемых в компьютерах, смартфонах и т. д.), привел к дефициту чипов и их удорожанию.
Кейс
В марте 2021 года сошлось несколько факторов, повлиявших на всю автоиндустрию. Пожар на заводе Renesas в Японии привел к временной остановке производства полупроводников для автомобилей, в результате чего пострадал японский автопром, а также полтора десятка европейских автомобильных концернов, таких как BMW, Maybach, Mercedes-Benz, Volkswagen, Skoda, Audi, Lamborghini и т. д.
Кейс
Из-за локдауна в период пандемии COVID-19 резко возросли продажи бытовой электроники, ноутбуков и смартфонов, для которых используются те же микросхемы. Производители микросхем сделали выбор в пользу домашних гаджетов, а крупнейшим автопроизводителям приходится останавливать конвейеры. Volkswagen и Renault прогнозируют падение производства на 100 тыс. автомобилей в год в каждой компании и рост цен летом 2021 года, а новая модель Peugeot 308 вместо виртуальной приборной панели получит обычную аналоговую.
4. Робастность, то есть устойчивость к внешним воздействиям. Под такими воздействиями имеются в виду ситуации, когда, например, в выборку из миллиона фото, на которой работает алгоритм распознавания лиц, добавили еще одну фотографию. Если алгоритм «ломается», перестает правильно распознавать лица, это говорит об отсутствии робастности. Она необходима и в случае, когда алгоритм перезапускают на новом устройстве: он должен продолжать корректно работать.
5. Защита персональных данных. Разработчик должен позаботиться о том, чтобы ПДн нельзя было вынуть из системы (для этого иногда имеет смысл, например, их уничтожить или зашифровать) и чтобы были учтены все случаи непрямого получения ПДн (путем деперсонификации данных и т. д.). (Подробнее об этом см. раздел 4.1.)
6. Право отказаться от использования ИИ. С этической точки зрения не следует принуждать людей к использованию цифровых платформ, даже если кому-то такой выбор кажется безусловным благом. По ряду причин — физических, финансовых, религиозных — человек должен иметь право не использовать систему и тем не менее оставаться работоспособным членом общества. Кроме технических и социальных причин важен исторический взгляд на современный уровень развития человечества.
Цитата
Почему мы думаем, что наши разработки — это предел мечтаний? В истории были прецеденты, когда в рамках идеологии и достигнутого технического прогресса люди делали совершенно неэтичные вещи и верили, что поступают правильно. А кто гарантирует, что-то, что мы сейчас делаем, нашим потомкам не покажется так же дико, как сейчас нам кажутся устои нацистской Германии? Именно поэтому всегда должен быть простор для маневра, и для этого необходимо оставить аналоговый путь.

Максим Федоров, вице-президент в области ИИ и математического моделирования Сколковского института науки и технологий
7. Равный доступ. В государстве не должно быть преференций для доступа к ИАС у отдельных категорий граждан, выделенных по социальному, экономическому, политическому признаку. К системе должны иметь доступ абсолютно все. Обязательно должны учитываться права инвалидов и других категорий граждан с ограниченными возможностями здоровья: для них должны разрабатываться специальные интерфейсы, например версии сайтов для слабовидящих или интерфейсы с сурдопереводом.
8. Преодоление дискриминации. В ИИ-системах может быть (непреднамеренно) встроена дискриминация людей по расовым, этническим, социологическим и прочим признакам; надо стремиться тому, чтобы подобных перекосов не было.
Кейс

Муниципалитеты Амстердама (Нидерланды) и Хельсинки (Финляндия) ведут открытый онлайн-реестр алгоритмов ИИ, которые применяются в этих городах. Любой житель может узнать, где и как используется искусственный интеллект. В реестрах описаны в том числе:

  1. сканирование и распознавание номеров автомобилей, чтобы выявить нарушителей правил парковки Амстердама;

  2. выявление случаев незаконной сдачи жилья в аренду в Амстердаме (алгоритм анализирует случаи нарушений правил аренды за последние пять лет и вычисляет вероятность повторных нарушений в текущем периоде по указанному адресу);

  3. медицинский чат-бот, который отвечает на медицинские вопросы и консультирует по поводу работы учреждений здравоохранения Хельсинки.

Каждая технология описана в реестре по разделам: дата-сет (способ сбора и хранения данных), обработка данных (описание модели), защита от дискриминации, контроль со стороны человека, управление рисками.

5.2.3 ЧЕЛОВЕКОЦЕНТРИЧНЫЙ ПОДХОД К ИИ

Значительную часть перечисленных выше компонентов доверенного ИИ можно считать реализацией человекоцентричного подхода к его разработке и внедрению. Три группы принципов (прозрачность, надежность, человекоцентричность), на которых строится современный ИИ, показаны на рисунке 15.

Рисунок 15. Основные принципы ИИ, принятые в ведущих международных организациях

Человекоцентричный подход к развитию ИИ означает, что человек имеет право на любом этапе разработки, внедрения или применения ИИ отменять или запрещать любые действия или решения, принимаемые ИИ, и государство должно обеспечить своим гражданам возможность воспользоваться таким правом. Также следует закрепить в соответствующих документах баланс между развитием технологий и защитой общечеловеческих ценностей и вообще человечности (к ней относятся конфиденциальность, эмоции, спонтанность, интуиция, духовность и т. д.). Однако в комплексном виде этого не происходит; как правило, из этого комплекса «выдергиваются» отдельные права, на которые ИИ обязан не посягать, например гендерная проблематика, хотя с технической точки зрения ИИ не имеет половой принадлежности и сама постановка вопроса лишена смысла.
Человекоцентричность имеет и другое измерение, а именно требует ответа на вопрос, насколько ориентированным на человека (пользователя) является то или иное техническое решение. В человекоцентричной системе пользователь в каждый конкретный момент времени точно понимает, что он взаимодействует не с человеком, а с роботом. Это правило должно соблюдаться как в отношении простейших алгоритмов (например, чат-ботов на сайте организации), так и применительно к сложнейшим устройствам, например антропоморфным роботам.
Ситуация, когда пользователь не может отличить робота от живого человека, критична с точки зрения этики, а сейчас для ее возникновения есть немало предпосылок. Так, некоторые пожилые люди или люди с невысоким уровнем цифровой грамотности воспринимают робота как живого человека и пытаются общаться с ним как с человеком: «Девушка, ну вы уж мне, пожалуйста, то-то и то-то». Невозможность установить полноценную коммуникацию будет фрустрировать такого пользователя, не только создавая негативный клиентский опыт, но и препятствуя получению услуги. Если речь идет о госуслугах или банковских услугах, такая ситуация становится причиной дискриминации целых групп граждан.
Кейс
Сотрудники Университета Палермо (Италия) научили робота Пеппера «думать вслух», чтобы алгоритм принятия им решений был прозрачен и понятен для пользователя. Озвучивание роботом своих действий также помогло исследователям понять, как связаны между собой решения и поступки робота. Кроме того, эта опция может быть особенно полезна в случаях, когда роботы и люди взаимодействуют друг с другом.
Помимо дискриминации, взаимодействие с роботом влечет за собой обширный блок проблем, связанных с психологическими аспектами коммуникации человека и ИИ. Отметим лишь некоторые из них, несущие наибольшие этические риски.
В профессиональном жаргоне маркетологов есть понятие «липкая технология» — что-то, что привлекает внимание, удерживает человека, заставляет пользоваться сервисом или продуктом снова и снова. ИАС добавляют новые измерения в пространство липких технологий, позволяя, например, сделать человека эмоционально зависимым от чат-бота и создавая тем самым простор для манипуляций. Идентификация собеседника как робота обязательно должна быть закреплена в законодательстве и на уровне технических решений.
Еще одна ситуация из этого ряда — когда от пользователя требуются неудобные для него форматы взаимодействия с ИИ.
Кейс

Голосовой помощник Николай единого контактного центра при правительстве Тульской области требует специальных формулировок и разговора по особым правилам, описанным на сайте тульского цифрового министерства. В частности, при общении с ботом Николаем следует:

  • называть населенный пункт одним словом (не указывая тип населенного пункта, район, область, адрес или номер подразделения);

  • отвечать односложно на все вопросы типа «Вы будете подавать документы на услугу или получать готовые?»;

  • в ответ на вопрос «Пожалуйста, уточните услугу, на которую будете подавать документы» называть только наименование услуги, например СНИЛС, пособие на ребенка, субсидия по ЖКХ, паспорт и т. п. Ответ «подать документы» приведет к некорректной записи, поэтому следует исключить это словосочетание при указании услуги;

  • называть свою фамилию одним словом, слитно, избегая произношения по слогам, так как это может затруднить распознавание.

    Очевидно, что взаимодействовать с таким помощником и, следовательно, получить услугу пользователю будет весьма затруднительно.
Говоря об антропоморфных роботах, нельзя не упомянуть теорию «зловещей долины» (см. рисунок 16). Выводы исследователей подтверждают сказанное выше: пользователь должен совершенно четко понимать, что имеет дело с роботом, а не с человеком.

Рисунок 16. Эффект «зловещей долины»

Врезка
ГИПОТЕЗА «ЗЛОВЕЩЕЙ ДОЛИНЫ»

Гипотезу об эффекте «зловещей долины» (uncanny valley) впервые сформулировал японский ученый-робототехник Масахиро Мори. Согласно гипотезе, робот или другой неживой объект, который выглядит и действует почти как человек, но не полностью идентичен ему, вызывает у наблюдателя отвращение и страх. Мори представил свою гипотезу в виде графика (см. рисунок 16), расположив на нем антропоморфные существа. После плавного подъема по шкале привлекательности для человека на графике виден резкий провал («долина»), в который попадают такие объекты, как зомби, трупы, а также человекоподобные андроиды. По мнению Мори, похожая на человека машина перестает восприниматься как техника. Антропоморфный робот начинает казаться нездоровым или мертвым человеком, ожившим трупом, вызывая у наблюдателя страх смерти (см. рисунок 17).

Рисунок 17. Роботы Алекс и Даша, сотрудники московского МФЦ, — примеры устройств, которые попадают в «зловещую долину» Мори

В связи с феноменом «зловещей долины» нельзя не упомянуть работы одного из самых знаменитых робототехников современности Хироси Исигуро. В его лаборатории при Университете Осаки создаются роботы-андроиды и ведутся исследования проблемы «зловещей долины». Поэтому, в частности, самые современные роботы имеют иногда немного карикатурный или «мультяшный» вид: это помогает не попасть в «зловещую долину» и повышает доверие к технологиям.

5.2.4 ВЕРИФИКАЦИЯ ЭТИЧЕСКИХ ХАРАКТЕРИСТИК ИИ

Еще одним важным свойством доверенного ИИ считается возможность верификации его этических характеристик, а для этого необходимы международные этические стандарты. Когда компании выпускают свои кодексы, это только декларация о намерениях, которая должна быть со временем воплощена в прикладных технологических и управленческих решениях и, среди прочего, в верификации на соответствие тем или иным стандартам. Сейчас валидация, точнее верификация по этическим стандартам всех ИАС, — это один из главных вопросов развития ИИ.
Кто пишет стандарты? Каждый разработчик должен будет проверить свой продукт на соответствие требованиям, которые указаны в стандартах. Причем проверять продукты корпорации нужно будет не по кодексам этой корпорации, а по государственным стандартам. Для этого государство создает исполнительный орган, который отвечает за проверку.
Как будут проходить проверки? Самое важное и одновременно самое сложное — это объяснить разработчику, как именно созданный им ИИ будут проверять на соответствие стандартам. Технологии и процедуры верификации также должны быть зафиксированы в стандартах в том или ином виде. Пока неясно, как можно, например, валидировать на этичность интеллектуальную систему, которая извлекает метаданные. Вариативность тех данных, с которыми работают программы, колоссальна. По сути, практически каждый человек генерирует какие-то свои данные с собственной структурой, и система может в каждом случае извлекать разные данные. Вопросы проверки здесь пока открыты.
Цитата
При разработке концепции доверенного ИИ важно помнить, что ничего мистического и принципиально нового в технологии ИИ нет: это «старые добрые» информационно-коммуникационные технологии, только с учетом выделенных в отдельный стек технологий машинного обучения, сбора и обработки данных и т. д. Поэтому можно и нужно применять все методы (отладки, разработки и так далее), которые существовали раньше; а новое придумывать на базе старого, руководствуясь принципом «созидая, не разрушай».

Максим Федоров, вице-президент в области ИИ и математического моделирования Сколковского института науки и технологий
Право не раскрывать данные. Предположим, в компании «Око» разработали систему, которая имеет дело с данными в соцсетях, извлекает из них информацию и помогает пользователю соцсетей. Компания использует собственные разработки в области алгоритмизации, которые защищены патентом. Она не хочет раскрывать эти данные проверяющей организации и имеет на это законное право. Для проверяющих работа алгоритмов должна быть черным ящиком, потому что это ноу-хау и нет никаких гарантий, что чиновник, который проводит проверку, завтра не уволится и не устроится на работу к конкурентам «Ока». Разработчики и владельцы продуктов заинтересованы в том, чтобы неопределенность закончилась и появились методы валидации. Эти методы начнет использовать государство, но бизнес при этом будет знать, что это за методы и как они работают, и понимать, с чем он имеет дело. Это сделает ситуацию более удобной для всех.
ГОСТ Р 59 276−2020 «Системы искусственного интеллекта. Способы обеспечения доверия. Общие положения» // Электронный фонд правовых и нормативно-технических документов.
Воронков Н. А. Стабильность и устойчивость экосистем // Основы общей экологии. М.: Агар, 1999.
What is the Algorithm Register? // City of Amsterdam Algorithm Register.; What is AI Register? // City of Helsinki AI Register.
Голосовой помощник: запись на прием в отделение МФЦ // Министерство по информатизации, связи и вопросам открытого управления Тульской области.
Добрюха Е. Мечтают ли андроиды об электролюдях // Кот Шрёдингера.