Кто тут ходит нераспознанный?
О видеонаблюдении с распознаванием лиц в 2020 году
Системы видеонаблюдения давно стали привычной деталью как на улицах, так и в помещениях. За последние несколько лет к видеонаблюдению добавились технологии распознавания лиц. Во время пандемии COVID-19 городским системам видеонаблюдения с функцией распознавания лиц нашлось новое применение. Технология, которая раньше была ориентирована в основном на обеспечение безопасности и удобство пользования сервисами, неожиданно превратилась в инструмент слежки, преследования и наказания граждан.
Видеонаблюдение для безопасности и контроля

Сама по себе технология распознавания лиц выполняет много полезных для общества функций. С ее помощью можно предотвращать кражи, считать посетителей, контролировать соблюдение рабочего графика сотрудниками и отличать новых посетителей от постоянных клиентов. Можно анализировать деятельность организации, например, составить портрет типичного клиента сервиса и узнать, насколько посетители довольны товарами и услугами.

Видеонаблюдение с функцией распознавания лиц становится все более популярным способом обеспечить безопасность в местах скопления людей, на промышленных и коммерческих объектах, в финансовой и других сферах. Такая система может быть использована, например, в офисе, в баре или магазине.

Вместе с тем технология — это только инструмент. Гораздо важнее, кто и как будет использовать его. Вопросы о приватности, безопасности частной жизни и этичности использования технологии видеонаблюдения и распознавания лиц появились давно. По мере развития технологий таких вопросов становится все больше.

Эксперты давно говорят, что для граждан и бизнеса оказываются возможны не только перечисленные выше блага, но и неотъемлемые риски: нарушение приватности, нарушение прав и свобод (например, на свободное передвижение), различные способы дискриминации граждан, утечка собранных данных, угрозы нацбезопасности, угрозы раскрытия коммерческой тайны, потери вследствие ошибок системы и др.
В докладе «Этика и «цифра»: этические проблемы цифровых технологий» (выпущен Центром в январе 2020 года) мы рассказывали о технологии распознавания лиц как о составной части системы Большого брата, которая зарождается в разных странах мира.

«Государству технология распознавания лиц интересна в первую очередь для обеспечения общественной и национальной безопасности и борьбы с преступностью, в том числе для противодействия терроризму. Сложность заключается в установлении справедливого баланса общественных и частных интересов, обеспечения безопасности и защиты прав гражданина.

По данным международной организации Algorithm Watch, правоохранительные органы минимум 10 стран Евросоюза уже используют технологию распознавания лиц, еще в пяти странах собираются ввести в ближайшие годы, при этом только в Испании и Бельгии она запрещена. …в Евросоюзе появилась инициатива запретить массовое использование технологии распознавания лиц и признать ее «технологией с запредельным риском».

В Лондоне распознавание лиц используется с 2015 года, к 2017 году там сформировалась одна из крупнейших в мире систем видеонаблюдения (около 470 000 камер). Расходы составили сотни миллионов фунтов, но в большинстве случаев система распознает подозрительных людей ошибочно, задержать настоящих преступников не удается, зато граждане высказывают опасения и недовольство».
Технологии постоянно совершенствуются. Сейчас системы распознавания лиц способны анализировать изображения, учитывая освещение, масштаб, позу, возраст, выражение лица и жесты людей. Даже если часть лица закрыта одеждой, это уже не помеха для алгоритма: не помогут ни темные очки, ни медицинская маска.
Мне ничего не будет. Я же ничего не нарушал

В большинстве стран, включая Россию, граждане в основном равнодушно отнеслись к новым технологиям. Городская система видеонаблюдения ассоциировалась с полезными вариантами применения: надо же вычислять преступников, находящихся в розыске, лиц, пропавших без вести, и т. п. Технология распознавания лиц воспринималась как достаточно полезный прием, который мог сопровождаться задержанием. Как самостоятельную процедуру ее не рассматривали. Большинство придерживались мнения: «Мне ничего не будет. Я же ничего не нарушал. Пусть ловят преступников и ищут пропавших детей!»
В Москве в 2019 году с помощью технологии распознавания лиц полиции удалось найти похитителя картины Архипа Куинджи «Ай-Петри. Крым». Алгоритм помог узнать маршрут злоумышленника и проследить его по записям с камер видеонаблюдения.
В некоторых случаях ошибки если и имели место, то без серьезных последствий. Задержать, остановить по ложному сигналу с камеры — такое бывало, затем людей обычно отпускали. Состава преступления нет, а система может ошибаться, она несовершенна.
На станции метро был задержан активист независимой политической партии: полиция отреагировала на сигнал с камеры. После сопоставления с базой нарушителей молодой человек был опознан как «лицо, находящееся в розыске или уклоняющееся от исполнения административного наказания». Его отвезли в отделение полиции, но вскоре отпустили, потому что не нашли его в базах нарушителей закона. Позже выяснилось, что фото активиста в базу данных системы «Безопасный город» добавил сотрудник антиэкстремистского центра.
Система «Безопасный город» на Сахалине

Первые видеокамеры на Сахалине установлены еще в 2014 году. Вопреки распространенному мнению, видеокамеры принадлежат не органам охраны правопорядка, а городским властям.

Интеллектуальные камеры установлены во дворах, на улицах, в общественных местах. Информация с них поступает в диспетчерскую службу, где за мониторами круглосуточно следят дежурные.

Цель — сбор и анализ информации, поступающей от различных городских подсистем, и связь между ними. Сама по себе камера просто снимает видео. Подсистемы объединяют видеокамеры, системы автоматической пожарной, аварийной сигнализации и другую контролирующую автоматику, информационные терминалы, тревожные кнопки. Действия координируются с помощью дежурных и диспетчерских муниципальных служб.

Сейчас сетью круглосуточного онлайн-наблюдения охвачен весь остров Сахалин: видеокамеры расположены в аэропортах, морских портах и на вокзалах. При встрече гостей острова срабатывает система биометрической идентификации: изображение лица с камеры автоматически сравнивается с фотографиями людей, находящихся в розыске. Если выявлено совпадение, в силовые структуры отправляется уведомление с координатами и временем фиксации.

Подобные инновации внедрялись с целью снизить преступность, но система видеонаблюдения на Сахалине пока не стала волшебной палочкой. Количество преступлений в регионе продолжает расти. В качестве одной из причин руководство региона называет недоукомплектованность штата правоохранительных органов.

Сахалинская система «Безопасный город» — не единственная в России, она внедряется во многих городах. В Москве система «Безопасный город» появилась в 2011–2012 годах. Система распознавания лиц (105 000 видеокамер) заработала в феврале 2020 года. Количество видеокамер постоянно увеличивается, как и парк мощных компьютеров для поддержания работоспособности системы. Сегодня московская система наблюдения — одна из крупнейших в мире, причем ее развитие продолжается.
Если вас интересует история развития и возможности московской системы видеонаблюдения, рекомендуем материал BBC.
Что не так с видеонаблюдением в 2020 году?

В 2020 году в России реализовался один из рисков: данные с камер системы видеонаблюдения, где имеет место высокий процент ошибок, стали использовать для наказания людей по принципу «докажи, что ты невиновен». Весной 2020 года в Москве штраф выписывался автоматически и только на основании данных с камеры видеонаблюдения, без составления протокола об административном нарушении, что противоречит КоАП РФ, а также без дополнительных доказательств правонарушения. Суд полагает, что техника не может ошибаться и верно распознает каждого человека в кадре.

Граждане не ожидали, что видеонаблюдение установлено повсюду, а его возможности столь широки. При этом результат оставляет желать лучшего. Технология далека от совершенства, допускает ошибки – но бремя исправления ошибок техники переложили на людей.
Автоматическое признание виновным на Сахалине

Биометрическая система распознавания лиц «Визирь» — часть системы «Безопасный город» в Южно-Сахалинске.

11 апреля жительнице Южно-Сахалинска был выписан штраф в 15 тысяч рублей по административной «эпидемической» статье. Об этом она узнала от полицейского, который пришел к ней домой, чтобы составить протокол, и показал фото, сделанное камерой видеонаблюдения.

5 апреля Светлана переехала на Сахалин из Томска. В аэропорту ее фотографии внесли в базу данных системы «Безопасный город» и выдали предписание Роспотребнадзора с запретом выходить из дома в течение двух недель. Женщина утверждает, что не только не была в районе, где ее якобы зафиксировала камера видеонаблюдения, но даже не знает, где он находится, а фотография едва ли похожа на нее. Сотрудники полиции согласились: очевидного сходства нет. Тем не менее 61% сходства оказался достаточным основанием для штрафа. Пострадавшая пыталась оспорить его в суде, но успеха не добилась и собирается подавать апелляцию.

Министерство цифрового развития Сахалинской области провело расследование, но нарушений в работе системы «Визирь» не нашло. Разработчики оборудования, из-за которого женщина в Южно-Сахалинске получила штраф, отметили, что «Визирь» работает корректно. В том, что гражданке необоснованно выписан штраф, система тоже «не виновата».
Перед организаторами встала этическая дилемма: наказывать невиновных или упускать виновных? Точность распознавания лиц в такой системе, как сахалинский «Визирь», оптимизируется в зависимости от задачи. Если поставлена задача уменьшить количество ложноположительных срабатываний, то «сито» будет слишком редким. И тогда преступники, попавшие в объектив камеры, имеют хорошие шансы скрыться. А если стоит задача найти 100% лиц из базы, то наряду с ними по ошибке будут «опознаны» и многие обычные граждане. До сих пор для городских систем видеонаблюдения выбирали первый вариант. Случай на Сахалине показал, что систему легко перенастроить, особенно если разработчики и лица, принимающие решения, не считают подобное использование системы в карательных целях неэтичным.

Система распознавания лиц на Сахалине не принимает решений. Она создавалась для того, чтобы выявлять нарушителей правопорядка. Просто в связи с пандемией ей нашли новую сферу применения. Однако такая практика создает у граждан впечатление, что цель — запугать общество путем наказания всех, кто просто оказался не в том месте в неудачное время. Заведомо известно, что система может ошибаться, но тем, кто получил штраф незаслуженно, придется потратить еще немало сил и времени на его отмену.
В 2020 году оказалось заведомо рискованным убеждение «мне ничего не сделают, я же не нарушаю». В любой момент обычный человек все равно может получить наказание. Оказалось, что в системе нет ограничений, которые предотвращали бы ее неэтичное применение.
Получить предупреждение, выговор, замечание или неожиданно обнаружить полицейского на пороге дома из-за ошибки системы неприятно. Допускаем, что организаторы «хотели как лучше». Реальный штраф действует серьезнее и подрывает доверие граждан к действиям государства. Оказалось, что система не просто работает с ошибками, она еще и равнодушна к тем, кого наказала несправедливо. Например, в первые дни работы московское приложение «Социальный мониторинг» могло потребовать сделать селфи в любое время суток — просто потому, что такой вариант не был отмечен как недопустимый. Этические ограничения в работу систем необходимо закладывать заранее, до ввода в эксплуатацию.

Отказ от использования вместо нейтрализации рисков?

В июне 2020 года компании IBM, Microsoft и Amazon объявили о том, что временно отказываются от использования технологии распознавания лиц.

Сначала об отказе от продажи услуг по распознаванию лиц объявила IBM . По словам главы компании, пользователи систем, в которых задействован искусственный интеллект, должны нести общую ответственность за продукт. Технологии искусственного интеллекта нуждаются в проверке на предвзятость. Следует постоянно проводить их тестирование и знакомить общественность с его результатами. Такие меры предосторожности особенно важны, когда данные систем используются правоохранительными органами. В 2019 году в IBM была создана обширная база лиц для машинного обучения. Сегодня компания призывает общественность к широкому обсуждению обоснованности применения технологии распознавания лиц органами правопорядка.

Компания Amazon на год запретила полиции использовать технологию распознавания лиц Amazon Rekognition. Представитель фирмы заявил, что компания стремится дать Конгрессу США время разработать правила, как именно полиции разрешено использовать алгоритмы распознавания лиц, чтобы исключить расовую дискриминацию и снизить предвзятость. Вскоре и Microsoft отказалась продавать полиции программное обеспечение для распознавания лиц.

Специалисты давно говорят о том, что использование цифровых технологий в деятельности правоохранительных органов неоднозначно с этической точки зрения. Возникающие проблемы вызваны как несовершенством самих технологий, так и человеческим фактором. Одной из ключевых проблем является предубежденность алгоритмов.

Государство должно защищать права граждан и корректно использовать цифровые технологии. Использование технологий в карательных целях, с большим количеством ошибок и случайностью автоматического наказания всех, кто «попал под руку» далекой от совершенства системе, подрывает доверие граждан к цифровым технологиям, в том числе к их внедрению в работу государства. Тем более что развитие технологий и ресурсы их разработчиков сильно опережают возможности государства установить адекватный контроль за применением этих технологий.

Но если не получается использовать технологии, не допуская грубых промахов, возможно, пока не стоит ставить внедрение на поток? Потому что рано, да и обращаться толком не умеем. Там же, где они уже внедрены, вероятно, имеет смысл «выключать» их при первой возможности, а не оставлять в ожидании «второй волны».

Тем не менее использование технологии распознавания лиц в целях государственной слежки только развивается. Например, недавно стало известно, что во всех российских школах планируется установить системы видеонаблюдения с функцией распознавания лиц (разработка компании NTechLab). Платформа называется Orwell — «Оруэлл».

Шутка «Зря вы Оруэлла читали. Теперь неинтересно будет» известна не один год. В 2020 году она звучит немного зловеще.
Светлана Коршунова, Алиса Орлова