#1 Цифровая этика с Иваном Ниненко
Гость первого выпуска «Циферкаста» — член экспертного совета Future Foundation Иван Ниненко. Иван читает лекцию на курсах «Этика принятия решений в цифровой трансформации». Почему этика в эпоху цифровой трансформации приобретает новое значение? Этические вопросы банковского скоринга, спорные моменты с внедрением беспилотников на дороги, этика и nudging, а также феномен социального рейтинга в Китае — об этом и многом другом вы узнаете из подкаста.
Подкаст доступен на платформах:

Google Podcasts
Яндекс Музыка
Apple Podcasts
VK
Spreaker
Summary

Наглядные примеры этических аспектов цифровизации

При цифровой трансформации возникают разного рода проблемы. Приведем примеры. Сейчас в банковской например сфере очень распространен скоринг: решение о выдаче кредита принимается на основе данных, которые человек подает. Эта система все больше автоматизируется, и есть алгоритмы, которые на основе поступающей информации и всех предыдущих решений выдвигают очень эффективное решение, выдавать кредит или нет. Аналогично происходит в каршеринге: системы скоринга, которые принимают решение, давать вам эту машину или нет, все эти примеры из бизнеса.

Системы скоринга постепенно находят применение в других областях, и цифровизация передает принятие решений из рук человека в «руки» алгоритма. Еще больше этических вопросов возникает, когда вопросы скоринга становятся объектом интереса государственной системы. Например, государство будет предоставлять услуги на основе таких же систем оценки. Уже сейчас мы не всегда можем понять, на основе каких именно параметров системы принимают решения, отдельные параметры вызывают именно этические вопросы, например: насколько этично учитывать пол, возраст, веру, место рождения при принятии каких-то решений, например при выдаче ипотеки или субсидии? Передача решения алгоритму — один из больших вопросов цифровой трансформации.

Повышение эффективности цифровой трансформации — это неизбежный процесс, и в дальнейшем все больше аналитических алгоритмов будет внедряться в государственную сферу. Современные технологии позволят собирать цифровой след, который человек оставляет неосознанно, уже сейчас собирается довольно большой объем информации, благодаря чему компании и государство много знают о человеке, а сам человека не всегда знает и понимает, что происходит.

Каждая страна сама решает, каков лимит сбора этих данных. В Центре CDTO проводятся встречи с экспертами, в частности, поднимается один из вопросов цифровой трансформации и этики: как разрешить вечный конфликт между приватностью и безопасностью?. Он также выражается как конфликт приватности и удобства. Есть примеры, допустим, работа с сайтами и согласие на сбор данных, или cookies, когда нам удобнее отдать данные о себе и не задаваться вопросом, как они будут использованы.Вряд ли кто-то откажется от работы с сайтом из-за сбора данных. С безопасностью тоже вопрос большой, потому что в Москве сейчас система распознавания лиц внедряется очень быстрыми темпами, и там, где вы передвигаетесь, уже сейчас может отслеживаться ситуация. Будут ли учитывать эту информацию в системах скоринга в вашем личном профиле, в какой-то итоговой оценке, которая может в итоге возникнуть?


Что такое наджинг и как этим пользуются компании или государство?

Наджинг — особая система, позволяющая людям делать правильный выбор и принимать верные решения. Когда вы заходите посмотреть фильм, вам рекомендуют другой фильм, и все эти системы устроены таким образом, чтобы захватить ваше внимание. Иногда возникает этический вопрос, насколько адекватно предлагаемое. Например, когда на сайтах Amazon, где сейчас системы рекомендаций так работают, что очень много антипрививочников находится в топе, потому что их многим интересно читать и рекомендуются книги антипрививочников. Вопрос состоит в том, насколько это этично. Для корпораций пока нет никакой регуляции, максимизация прибыли — их основная цель, человеку надо порекомендовать то, что заинтересует его остаться на сайте, сделать покупку.

Пока непонятно, будет ли регулироваться подталкивание пользователя к решениям, будут ли какие-то ограничения. Регулирование этого вопроса становится тем более актуальным, если государство тоже начинает использовать подталкивание. и тут становится еще более важно, чтобы где-то указывалось на использование такой функции. Это может быть первым шагом к тому, чтобы минимизировать риски, в том числе конфликтные ситуации, когда люди узнают о том, что их подталкивают к принятию решения, но их об этом не предупредили.


Этические вопросы, связанные с технологиями искусственного интеллекта

Сейчас уделяется достаточно много внимания вопросам, связанным с технологиями искусственного интеллекта и делегированием решений этим системам, особенно в экспертных кругах. Многие люди боятся ситуации, когда, например, бесплатный транспорт будет принимать решения по ходу движения. Это во многом связано в целом с идеей моральной ответственности, которую человек несет как ответственность за свои поступки. Например, когда водитель за рулем принимает решение, и это приводит к аварии, мы понимаем, что он несет ответственность. Когда транспортным средством управляет искусственный разум, кто будет нести ответственность за эту ситуацию? Будет ли нести ответственность за это разработчик, как сейчас? Будете ли нести ответственность владелец машины или какая-то государственная страховая система, которая будет выплачивать компенсацию пострадавшим?

Отдельный вопрос — это сложные ситуации, когда нет единственно правильного решения. Например, на дорогу резко выбежал ребенок, и надо принять решение, объезжать ребенка и тем самым увеличивать риск аварии или нет. Вам надо запрограммировать систему. Эти решения необходимо каким-то образом отразить в программе.Все перечисленное имеет непосредственное отношение ко всем морально-этическим проблемам, о которых говорят философы. Теперь подобные вопросы задают и программистам. Как машина будет принимать решения в сложных ситуациях этического выбора, о которых человек за рулем не думает заранее,а принимает решение в ту же секунду на основе собственного опыта, на основе своей собственной этической позиции, настроения в этот момент? У беспилотного автомобиля не будет ни настроения, ни этической позиции, у него будет алгоритм, который будет принимать решения, и алгоритмизация этических выборов — это очень интересная грань цифровой трансформации.


Сбор данных и его влияние на создание общества неравенства и появление системы социального рейтинга

Зачастую человек не осознает, какой цифровой след он оставляет и какие данные о нем собраны у компаний и у государства. В Европе закон о персональных данных требует от корпораций предоставлять людям информацию, которая о них собрана. Таким образом, любой человек может обратиться к корпорации с просьбой предоставить данные о нем. Это первый шаг к компенсации возможного неравенства, потому что до этого я не знал, что обо мне собрала эта корпорация, что она анализирует.

Дальше такой же вопрос возникает относительно сбора информации государством. Будет ли у меня доступ и в какой мере к тому профилю, который создаст государство, к моей медицинской информации, смогу ли я забрать из государственной системы то, что мне нужно.

Государству придется ответить на важный этический вопрос: в каком объеме и какая информация о человеке обязательно должна быть собрана ? Например, если будет собираться медицинская информация, общество сильно выиграет, если удастся создать хорошую систему электронной информации обо всех болезнях и контролировать перемещение вирусов.


Общество неравенства и системы социального рейтинга


Мы сейчас живем в обществе равенства, по крайней мере декларируется, что у всех людей должны быть равные возможности, равный доступ к социальным благам, которые дает государство. Социальное равенство как идея заложено в капитализме, в демократии, но если посмотреть все исследования, то сейчас богатые богатеют, бедные беднеют, и то, в какой семье вырос человек, очень сильно влияет на его будущее.

Социальный рейтинг, который принят в Китае, — это такой прямой способ управлять этой системой. Соответственно, нам надо о человеке знать все, и мы будем дальше давать ему какие-то целевые функции, и если он будет вести себя правильно, он будет получать бонусы, если неправильно — наказание, и тогда мы сможем в большей степени управлять обществом.

Опять же все законы, которые государство создает, направлены на то, чтобы общество как-то гармонично существовало и управлялось. Цифровизация дает государству большие возможности в этой сфере.

В Китае система социального рейтинга сейчас запущена в тестовом режиме и уже приводит к тому, что люди, которые по какой-то причине получают негативный социальный рейтинг, не имеют возможности путешествовать на самолетах и поездах, им будет отказано в приеме на госслужбу.

Уже сейчас желание получить должность на государственной службе предполагает, что у вас будет какой-то профиль, к требованиям к образованию добавляется еще ряд других требований, которые переводятся в единую систему социального рейтинга.

Система социального рейтинга неизбежно будет распространяться по миру. Вопрос в том, как она будет устроена, и каким целям она будет служить, и как сильно она будет направлять человека. Останется ли у человека какая-то степень свободы? Какова будет степень контроля со стороны государственных и других систем, внедряющих эти рейтинги?