2.2 ЦИФРОВОЕ НЕРАВЕНСТВО И ЦИФРОВАЯ ДИСКРИМИНАЦИЯ

Авторы раздела:
Л. В. Земнухова
С. В. Коршунова
О. С. Шепелева
Время чтения: 11 мин.
Проблемы цифрового неравенства возникают по разным причинам, в том числе из-за отсутствия необходимой инфраструктуры, из-за физических ограничений, низкого уровня цифровой грамотности граждан. Нарушение прав и дискриминация отдельных граждан и групп все чаще происходят из-за применения алгоритмов и ИИ, имеющих скрытые предубеждения, недостаточно продуманные (или вообще необъяснимые, как при работе с нейросетями — черными ящиками) механизмы принятия решений.

2.2.1 РАЗНЫЙ УРОВЕНЬ ДОСТУПА К ЦИФРОВЫМ ТЕХНОЛОГИЯМ

Риск ущемления прав может быть связан, например, с тем, что некоторые группы в обществе имеют ограниченный уровень доступа к технологиям или находятся в состоянии цифровой эксклюзии. Например, кто-то живет в местности, где нет современных средств связи, у кого-то не хватает денег, чтобы купить устройство, поддерживающее работу современных приложений, кто-то не имеет навыков, чтобы при помощи цифровых технологий безопасно и эффективно общаться, делать покупки, работать, учиться и пр. Для этих людей повсеместная цифровизация государственных и коммерческих сервисов означает либо полную утрату доступа к ним, либо существенное снижение их доступности, хотя такой эффект противоречит задачам перехода на «цифру»: открывать новые возможности, ускорять, упрощать и удешевлять процессы.
Подробнее см.: Дискриминация и цифровое неравенство // Этика и «цифра»: этические проблемы цифровых технологий. В 2 т. М.: РАНХиГС, 2020.
Кейс
В Норвегии некоторым семьям с детьми-школьниками во время пандемии приходилось искать места вне дома с устойчивым интернет-соединением, чтобы дети продолжали учиться. В России стал широко известен случай деревни Новопетровка Пермского края, где школьники из-за проблем с Сетью залезали на старую телевышку для отправки домашних заданий. В отчете Digital Planet описаны случаи, когда родители везли детей на парковку ближайшего супермаркета с бесплатным Wi-Fi, а в семьях, в которых устройств не хватало, возникал сложный выбор: использовать единственное устройство для работы родителя или для обучения школьника в одно и то же время. Необходимость учиться перед компьютером или гаджетом негативно влияет на слух, зрение, способность к концентрации, повышает утомляемость и общий уровень стресса у студентов и школьников. Обучению мешают невозможность уединиться в комнатах в общежитиях даже во время экзамена, отсутствие у многих студентов отдельного пространства дома и другие бытовые причины.
Norway’s statistics agency was also the first in the world to calculate the permanent damage inflicted by school closures: every week of classroom education denied to students, it found, stymies life chances and permanently lowers earnings potential. (Nelson F. Norway health chief: lockdown was not needed to tame Covid) // The Spectator.
Цифровая дискриминация из-за неравного доступа к технологиям проявляется, как правило, по отношению к уже социально неблагополучным людям, что радикально усиливает риски социальной сегрегации. Исследования показывают, что лица, страдающие от цифровой эксклюзии, не распределяются равномерно по всем социальным стратам, а сконцентрированы в группах, которые и без того относятся к уязвимым и неблагополучным, — пожилых людей, людей с физическими ограничениями и серьезными заболеваниями, малоимущих, мигрантов, представителей этнических и языковых меньшинств.
Digital Exclusion. A research report by the Low Incomes Tax Reform Group of The Chartered Institute of Taxation. April 2012.
Фактически цифровизация государственных и коммерческих сервисов приводит к дискриминации указанных групп, если не предпринимаются специальные меры для помощи им, например разработка дизайна сайтов для людей с физическими ограничениями, сохранение аналоговой формы получения услуги (возможности лично обратиться за услугой или позвонить в контактный центр, использовать бумажные документы вместо электронных, привлечь человека-посредника) и т. д.
Социальные вызовы технологий // Этика и «цифра»: этические проблемы цифровых технологий. В 2 т. М.: РАНХиГС, 2020.
Кейс
В Индии в 2021 году некоторые жители не могли записаться на вакцинацию, поскольку не имели смартфонов или не умели ими пользоваться. Иногда они узнавали о том, что прием только по записи, уже отстояв большую очередь в центр вакцинации. Необходимо иметь хотя бы один смартфон в семье или у друзей, чтобы вакцинироваться. Такое решение отсекает от услуги часть людей, для которых цифровые технологии недоступны: граждан с самыми низкими доходами, мигрантов, неграмотных и престарелых граждан.
Аналоговый способ получения услуги должен быть сохранен даже для тех, у кого есть доступ к цифровым решениям. Хотя исключение из процесса человека искореняет коррупцию и (частично) предвзятость, оно усложняет решение проблем в нестандартных и редких ситуациях, при сбоях и отказах системы (в том числе таких банальных, как отключение электричества). Аналоговая альтернатива позволяет в этих ситуациях сохранить гражданам доступ к жизненно важным продуктам и услугам и решить проблемы тех, кто не вписывается в сценарии алгоритмов.
Кейс
101-летний житель Великобритании подал заявление о желании остаться в стране после вступления в силу договора о Брексите. Как гражданин Италии, он, хоть и жил в Лондоне с 1966 года, обязан был подать заявление о желании остаться жить в Великобритании. Документы распознавались автоматически, программа считала последние две цифры года рождения — 1919 — и посчитала 101-летнего дедушку годовалым ребенком. Далее алгоритм потребовал предоставить согласие родителей «ребенка» на его дальнейшее пребывание в стране. Только вмешательство сотрудников ведомства помогло разрешить проблему и верно оформить документы.
O’Carroll L., Giuffrida A. Home Office tells man, 101, his parents must confirm ID // The Guardian.
У тотального навязывания «цифры» и отказа от якобы никем не востребованных аналоговых вариантов есть обратная сторона — цифровой луддизм. Есть ли у граждан право на отказ от цифровых технологий вообще? Может ли человек вообще не использовать их и при этом получать все положенные ему услуги, пользоваться всеми своими правами и выполнять свои обязанности? Сейчас в этом вопросе тоже нет этического консенсуса.

2.2.2 ПРЕДВЗЯТОСТЬ АЛГОРИТМОВ И БЕЗУСЛОВНОЕ ДОВЕРИЕ МАШИНЕ

Интеллектуальные системы, лежащие в основе онлайн-сервисов, цифровых услуг и продуктов, работают с огромным количеством данных и чаще всего непрозрачны даже для специалистов. Системы И И учатся получать информацию из таких наборов данных, которые раньше не воспринимались как источники информации или вовсе не существовали (например, социальных сетей). Системы на основе нейросетей в принципе не имеют заранее введенного алгоритма с предсказуемыми результатами работы. Это создает принципиально высокую сложность объяснения решений, которые принимает ИИ-система. Человек при желании может изучить работу машины и починить ее, но не может сам проанализировать действия интеллектуальной системы даже на уровне приложения в смартфоне: это технически невозможно для человеческого мозга (см. также раздел 5).
Тем временем распространенная и ранее презумпция безошибочности компьютера стремительно подменяет собой презумпцию невиновности человека. При этом государственные органы и службы иногда склонны доверять компьютеру, интеллектуальной системе, системе принятия решений в сложных ситуациях, будто бы она, в отличие от человека, непременно объективна и не может ошибаться. Системы обучаются на исторических данных (не свободных от предубеждений, искажений, неполноты и других недостатков), а алгоритмы создаются человеком, поэтому могут содержать различные ошибки.
Кейс
В Великобритании недавно завершился один из крупнейших юридических скандалов, связанный с работой алгоритмов. В 2000—2014 годах более 700 сотрудников почтовой службы получили наказания, включая тюремное заключение, за нарушения, которые они не совершали. Как доказали юристы, проблема была в ошибках компьютерной системы. Из-за этих ошибок возникали недостачи, порой размером в несколько тысяч фунтов. Несколько сотрудников даже закладывали свои дома, чтобы погасить недостачу из собственных средств. С тех пор некоторые из несправедливо обвиненных сотрудников уже умерли, другие разорились или получили ущерб для здоровья, семейных отношений, финансового состояния.
Бремя доказывания ошибок незаметно переложили на самих граждан. Поспешные решения и действия хоть и остаются формально в рамках закона, зачастую неэтичны по смыслу, а человек оказывается самой незащищенной стороной в многостороннем взаимодействии госорганов, коммерческих организаций и граждан.

2.2.3 УХУДШЕНИЕ УСЛОВИЙ ТРУДА ИЗ-ЗА АЛГОРИТМОВ

Алгоритмы все активнее используются для контроля и оценки работников, причем не только удаленных. Проблема заключается в том, что алгоритмы могут приводить к дискриминации и ухудшению условий труда, косвенно причинять ущерб здоровью сотрудников — все дело в принципах, на основе которых сформирован алгоритм. Самое неприятное начинается, когда данные систем контроля становятся основой для управленческих решений: не люди, а алгоритмы подгоняют сотрудников и снижают заработную плату, если те работают слишком медленно, или, например, прослушивают работников кол-центра, добиваясь максимальной загрузки. Алгоритмы, управляющие людьми, усиливают напряжение, делают работу более изнурительной и опасной, приводят к выгоранию и увольнению сотрудников.
Кейс
Журналистское расследование современной практики расчета смен и контроля качества работы показывает, что работники супермаркетов в США из-за алгоритмов буквально превращаются в полуроботов. Становится очевидно, что работу потеряют не сотрудники касс и залов, а их начальство: управлять массовыми работниками сферы ритейла будут алгоритмы. Алгоритм рассчитывает сложные и непредсказуемые смены работы, из-за чего сотрудники не могут совмещать эту работу с работой в другом месте, родители малолетних детей не могут заранее пригласить няню на время работы, становится невозможно планировать свой досуг, из-за постоянной непредсказуемости повышается уровень стресса и т. п.
Schulte B. Why Today’s Shopping Sucks // The Washington Post.
ПО для отслеживания активности пользователя в соцсетях, программах и приложениях применяется давно. В последние годы для контроля эффективности сотрудников руководители все чаще используют средства удаленного мониторинга, которые анализируют содержание коммуникаций, файлов и действий сотрудника, движения его глаз, давление тела на сиденье кресла (как доказательство нахождения на рабочем месте). Тотальный мониторинг трафика устройств, на которых работает сотрудник, включая переписку, сложно назвать обоснованным и допустимым. Такие программы контроля при удаленной работе потенциально нарушают право на частную жизнь, поскольку сложно или невозможно разграничить личное, домашнее и рабочее пространство. Часто эти программы необходимо устанавливать на личный или даже семейный компьютер. Это влечет за собой многочисленные этические риски, от уязвимости ПДн сотрудников до массового скоринга. Дата-сеты, собранные компаниями в период пандемии, могут быть в дальнейшем применены для других целей, например для определения производительности каждого специалиста и замены его автоматизированной системой.

2.2.4 ЗАВИСИМОСТЬ ОТ ПЛАТФОРМ И ВЛАСТЬ ИТ-ГИГАНТОВ

Предвзятыми могут быть не только алгоритмы, но и люди, принимающие решения о доступе к конкретным цифровым возможностям. С ростом влияния ИТ-гигантов и в результате монополизации рынка увеличивается риск деплатформинга — отказа в предоставлении услуг на платформе фактически в нарушение существующих правил использования сервиса. Главная опасность деплатформинга — лишение доступа к сервисам и ключевым компонентам ИТ-архитектуры не отдельных людей, а целых групп, сообществ, объединенных по признаку политических взглядов, ценностей, национальности, отношения к определенным событиям и т. п.
Кейс
Пожалуй, самый громкий случай деплатформинга — это блокировка аккаунта бывшего президента США Дональда Трампа в Twitter. Аналогичным образом сервис Spotify в 2021 году заблокировал ряд старых эпизодов подкаста известного ведущего Джо Рогана без объяснения причин, но, скорее всего, из-за несовпадения взглядов основателей платформы и гостей заблокированных эпизодов.