Плохие машины, хорошие мы?
О влиянии искусственного интеллекта на человеческую мораль
Группа зарубежных исследователей задумалась о влиянии агентов искусственного интеллекта на человеческую мораль. Насколько влияние машин на людей похоже на то, как люди влияют друг на друга? Правда ли, что искусственный интеллект может ухудшить нравы? Мы законспектировали содержание публикации и предложили нашим экспертам прокомментировать ее.
Чем интересно это исследование
В большинстве случаев люди предпочитают поступать этично, но иногда нарушают моральные нормы ради выгоды — или по крайней мере испытывают такое искушение. Совершить неэтичный поступок проще, когда можно разделить ответственность с другими людьми или вообще переложить на них вину. В наше время вместо «других людей» все чаще выступает ИИ. Стоит ли опасаться, что ИИ может негативно повлиять на поведение человека, сбить его с истинного пути? Что можно сделать, чтобы уменьшить риски? Такими вопросами задаются авторы статьи «Плохие машины развращают добрые нравы».
Английское название статьи Bad machines corrupt good morals, опубликованной в июне 2021 года в журнале Nature HumanBehaviour. отсылает к библейскому тексту, а именно к посланию ап. Павла: «Не обманывайтесь: худые сообщества развращают добрые нравы» (1-е послание Коринфянам 15:33). Авторы статьи: Нильс Кебис — научный сотрудник Центра взаимодействия машин и человека в Институте человеческого развития Общества Макса Планка (Германия), Ияд Рахван — директор этого института и Жан-Франсуа Боннефон — руководитель программы «ИИ и общества» Цифрового центра Тулузской школы экономики, руководитель проекта «Моральный ИИ» в Тулузском институте искусственного и естественного интеллекта.
Авторы выделяют и описывают четыре социальные роли систем ИИ с точки зрения их влияния на этические аспекты поведения людей и предлагают направления изучения поведенческих моделей взаимодействия ИИ и человека. Они призывают задуматься об этике ИИ и, в частности, о восприятии алгоритмов человеком. Эти вопросы были также затронуты в докладе Центра подготовки РКЦТ «Этика и „цифра": от проблем к решениям», который вышел в свет в июне 2021 года.

Довольно интересные вопросы ставятся в отношении регулирования — например, изменится ли характер влияния ИИ на поведение человека, если человек всегда будет точно знать, что перед ним не человек, а машина. Это одна из важных составляющих человекоцентричности — возможность для пользователя в каждый конкретный момент времени точно понимать, что он взаимодействует не с человеком, а с роботом.

Развивая тему доклада, мы публикуем краткое изложение содержания статьи с комментариями социолога Виктора Вахштайна и киберпсихолога Натальи Богачевой.
Почему моральные качества ИИ попали в фокус внимания
Мощные устройства на базе ИИ становятся все доступнее, это не может не вызывать беспокойства. Например, в одном из последних отчетов Европейской комиссии подчеркивается: «Граждане <…> обеспокоены тем, что использование ИИ может привести к непредвиденным последствиям или осуществляться в неправомерных целях». Безусловно, мошенники могут использовать любую технологию, искусственный интеллект не исключение, но нужно отметить, что с современными технологиями обманывать стало проще. Вот некоторые примеры этических соблазнов ИИ.
С помощью ИИ создаются инструменты для мошенничества, в частности дипфейки.
У школьников и студентов вместо плагиата появилась возможность использовать мощные алгоритмы порождения текстов на естественном языке (NLG) для написания эссе, а трейдеры могут неосознанно подражать стратегиям биржевых алгоритмов.
Больше 100 млн человек используют персональных помощников на базе искусственного интеллекта (например, Siri или Alexa); им доверяют и к ним обращаются за советом, в частности подростки.
Создание эффективных механизмов контроля над системами ИИ (о которых, в частности, говорится в докладе «Этика и „цифра": от проблем к решениям») требует анализа имеющихся эмпирических данных. Чтобы сформировать объективную повестку в отношении политики ИИ, нужно оценить, какие из опасений оправданы. Для этого авторы статьи в Nature Human Behaviour решили сравнить влияние ИИ-агентов на этичность поведения людей с человеческим влиянием в аналогичных ситуациях.
Искусственный интеллект — это совокупность компьютерных технологий (например, машинное обучение), позволяющая автономно выполнять задачи, которые раньше могли выполнять только люди. Эта автономность позволяет называть некоторые продукты на основе ИИ ИИ-агентами. Хотя ответить на вопрос о том, кто несет ответственностьза решения, принятые ИИ, становится все сложнее, мы исходим из того, что за «поведение» ИИ-агентов и его последствия всегда несут ответственность люди (разработчики, дизайнеры и пользователи).
Неэтичное поведение человека авторы статьи определяют как действия, «которые приносят вред другим людям и являются либо незаконными, либо неприемлемыми в обществе». Поведенческая этика изучает, как люди оценивают личную выгоду и риски неэтичного поступка, как материальные (финансовая прибыль и преследование по закону), так и психологические (например, восприятие себя). Многие негативные последствия использования ИИ-агентов уже неплохо изучены, например воспроизведение предвзятости, усиление интернет-зависимости или ускорение распространения ложной информации; авторы статьи сосредоточились на изучении того, как ИИ-агенты выполняют социальные роли, заставляющие человека причинять вред другим.
Четыре социальные роли
В статье выделены четыре основные функции (социальные роли), которые могут выполнять ИИ-агенты, негативно воздействуя на поведение человека:
1. Пример для подражания
Известно, что люди скорее последуют примеру тех, кто не соблюдает правила, чем тех, кто соблюдает их. В цифровом мире люди взаимодействуют как друг с другом, так и с машинами. Таким образом, машина, которая будет демонстрировать неэтичное или неприемлемое поведение, может изменить восприятие людьми того, что приемлемо или уместно. При этом дети в большей степени, чем взрослые, могут подпадать под влияние ролевых моделей — машин, и это может изменить их представление о моральных и аморальных поступках. Однако в целом актуальные экспериментальные данные позволяют предположить, что машины, выступающие в качестве неэтичных ролевых моделей, менее опасны, чем люди, действующие в том же качестве.
2. Советчик
Когда человек советует другому поступить плохо, негативное влияние на другого человека сильнее, чем в случае подражания ролевой модели. Люди склонны следовать советам и приказам, особенно когда они исходят от авторитетных фигур. Советчики, которым выгодны неэтичные действия, могут подталкивать своих «подопечных» к ним, и исследования показывают, что такие советы могут привести к нарушению этических норм, особенно если эти действия выгодны «подопечным». У многих ИИ-агентов может быть цель убедить человека совершить какое-то действие. Пользователи массово взаимодействуют с домашними помощниками и диалоговыми агентами. Поскольку обучить ИИ-консультантов так, чтобы они были нравственно безупречны, очень сложно, их советы могут подтолкнуть людей к нарушению этических норм.

Эксперимент, в котором сравнивалось влияние советов человека и ИИ-агентов на фактическое (не)этичное поведение людей (а не на моральные установки), показал, что искусственный интеллект и советы человека оказывают одинаково сильное негативное влияние на готовность людей нарушать этические правила ради выгоды.
3. Партнер
Людям проще вести себя неэтично, когда они действуют сообща, чем когда сталкиваются с соблазном в одиночку. В этом случае положительные ощущения от взаимопомощи могут быть сильнее, чем неприятное чувство от причинения вреда кому-то еще. Известно также, что партнеры легко перекладывают вину друг на друга.

Сегодня благодаря достижениям машинного обучения алгоритмы уже способны сотрудничать с людьми. При этом люди, которые используют машины, могут воспринимать их как субъектов и поэтому склонны хотя бы отчасти перекладывать на них вину и ответственность за «общие» неэтичные поступки.
4. Исполнитель
Когда человек сталкивается с моральным выбором, он предпочитает по возможности делегировать неэтичный поступок, действовать «чужими руками». При этом чаще всего люди не дают прямых инструкций нарушать этические правила, а вместо этого просто определяют желаемый результат и закрывают глаза на способы достижения цели. Таким образом заказчик избегает прямого контакта с потерпевшими и может игнорировать любые возможные нарушения этических норм.

Люди делегируют ИИ-агентам все больше задач, от ценообразования в онлайн-магазинах до допроса подозреваемых и разработки коммерческой стратегии. Новые этические риски возникают потому, что делегирование этически сомнительного поведения ИИ-агентам может быть особенно привлекательным: часто непонятная работа алгоритмов создает двусмысленность. Если позволить «черному ящику» выполнять задачи от чьего-либо имени, у человека появляется возможность отстранения и правдоподобного отрицания, а такая «свобода морального маневра» размывает ответственность за причиненный вред. Так люди смогут причинять вред, даже не зная об этом, потому что они только указывают цель, а за методы ее достижения «отвечает» алгоритм. Например, можно использовать алгоритмы для установления цен на товары, не зная, что алгоритмы могут координировать и устанавливать договорные цены. Те, кто использует ИИ для допросов, могут просто указать желаемый результат признания, не осознавая, что система запрограммирована также угрожать допрашиваемому пытками. Не только у мошенников, но и обычных людей — от учеников старшей школы до владельцев бизнеса и обиженных партнеров — может возникнуть соблазн использовать ИИ, чтобы делегировать ему плохое дело.
Основные выводы статьи
Хотя агенты ИИ не превосходят людей в своих способностях негативно влиять на этическое поведение, их неуловимое совокупное влияние вызывает беспокойство. Когда агенты ИИ активно участвуют в неэтичном поведении — в качестве партнеров и исполнителей, — они становятся инструментами, позволяющими людям действовать, опираясь на их неэтичные установки. ИИ-агенты делают возможной опасную комбинацию непрозрачности, анонимности и социальной дистанции, которая позволяет людям психологически отдалиться от неэтичного поступка, то есть совершить поступок в своих интересах и при этом сохранить веру в то, что моральные стандарты соблюдены. Люди часто позволяют моральным соображениям уйти на второй план и стремятся скрыть моральные последствия своего поведения — и этот процесс может происходить неосознанно. ИИ-подстрекатели усиливают эту тенденцию, вероятно, в большей степени, чем люди, что расширяет «слепые зоны» морали конкретного человека.

Необходимо проводить исследования, которые позволят напрямую сопоставить уровень негативного влияния ИИ-агентов и людей. Предыдущие исследования сравнивали поведение людей, которые играют в экономические игры с другими людьми, с поведением тех, кто играет в экономические игры с ИИ-агентами. Однако в этих задачах по большей части отсутствует четкая этическая составляющая. Следующим шагом будет проведение экспериментов, в которых люди сталкиваются с соблазном поступить неэтично, и ИИ-агенты могут подтолкнуть их в этом направлении, выступая в качестве ролевых моделей, советчиков, партнеров или исполнителей. Предстоит оценить, могут ли такие ИИ-агенты превзойти негативное влияние других людей, и если да — в какой мере и находясь в какой роли.

Даже несмотря на то, что ИИ-агенты могут вести себя неожиданно, их влияние на этическое поведение людей во многом зависит от того, как они запрограммированы и обучены. ИИ-агенты могут быть запрограммированы на выполнение определенной функции, а люди зачастую преследуют несколько целей, которые трудно изменить или предсказать. Предположим, что ИИ-агенты запрограммированы так, чтобы следовать целевым функциям, которые увеличивают прибыль. В таком случае мало оснований полагать, что они воздержатся от нарушения принципов этики для достижения этой цели.

Одна из стратегий предлагает обучать алгоритмы на основе желаемых поведенческих паттернов, а не слепо выбирать самые большие наборы данных из доступных. Следующим шагом должно стать проведение поведенческих исследований, нацеленных на формирование политики, — «с упором на… связанные с ИИ социальные, правовые и этические последствия и вопросы политики», как рекомендует Организация экономического сотрудничества и развития (ОЭСР).

Антикоррупционные исследования, исследования безопасности ИИ и руководящие принципы политики в равной степени указывают на прозрачность как ключевой принцип снижения потенциального вреда. В частности, нужно исследовать, может ли простое знание о существовании алгоритма снизить его негативное влияние. Поскольку алгоритмы становится все труднее обнаружить, исследователи и лица, ответственные за формирование политики, призывают установить законодательные нормы, согласно которым ИИ-агенты будут обязаны «представиться» перед началом взаимодействия с человеком. Необходимо знать больше о ситуациях, в которых люди ищут информацию о том, выполняет ли определенную роль ИИ или человек, и о ситуациях, в которых они намеренно избегают такой информации, поскольку такое стратегическое избегание может свести на нет усилия по обеспечению прозрачности.

Еще один важный для политики вопрос исследования — как интегрировать осведомленность о негативном влиянии системы ИИ в инновационный процесс. Каждый день появляются все новые инструменты, использующие технологию искусственного интеллекта. Нынешний подход «сначала внедряем инновации, потом извиняемся» вызвал негативную реакцию и даже требования запретить технологии ИИ, такие как распознавание лиц. Этические соображения должны быть частью процесса инноваций с самого начала.
Комментарии экспертов
Виктор Вахштайн
Cоциолог, кандидат социологических наук, декан философско-социологического факультета Института общественных наук РАНХиГС
Проблема, поставленная в статье, исключительно значима для социальных и поведенческих наук. Однако ценность предложенных авторами теоретических решений, как мне кажется, невелика. Протестируем описанную в тексте типологию на конкретном примере.
В Висконсине суды используют систему оценки вероятности повторных преступлений COMPAS, которая призвана вычислить будущих рецидивистов еще на стадии первого осуждения и рекомендовать судьям предпочтительную меру наказания. В 2016 году алгоритм решил, что Эрику Лумису стоит дать шесть лет уже за первое преступление, «на всякий случай». После приговора Лумис подал иск против штата Висконсин.
Действует ли система COMPAS как советчик? Да, несомненно. Это ее прямая функция —давать рекомендации судьям. Является ли она ролевой моделью? Если судьи будут долго и массово пользоваться ее рекомендациями, они вполне могут усвоить этот паттерн и воспроизводить его. Действует ли система как партнер? Поскольку авторы статьи под партнерством подразумевают сговор, то мы вполне можем отнести назначение наказания в данных обстоятельствах к «партнерскому действию» судьи и алгоритма. Стал ли COMPAS исполнителем? Ему напрямую делегирована задача оценки рисков повторных преступлений, которую обычно судья проводит сам, полагаясь на опыт и интуицию. К тому же, по мысли авторов, исполнители (делегаты) суть устройства, которые позволяют избежать угрызений совести и переложить часть моральной ответственности на машину. Оправдывая свое решение, судья из Висконсина так и поступил. Как видим, один кейс попадает сразу во все четыре ячейки схемы.

Проблема данной типологии в том, что обе оси, по которым она построена, не работают. Граница между «инфлюэнсером» (советчик, ролевая модель) и «энэйблером» (партнер, исполнитель) крайне размыта. То же и с другим критерием: «насколько алгоритм достиг уровня человека или превзошел его в своем развитии».

С авторским определением «неэтичного поведения» дело обстоит еще хуже: «Неэтичное поведение определяется как действия, которые оказывают вредное влияние на других и являются либо незаконными, либо морально неприемлемыми для более широкого сообщества». Подобное определение, если воспользоваться выражением самих авторов, оставляет «пугающую свободу для моральных маневров». Упомянутая система COMPAS вызвала бурю возмущения в США: она рекомендовала назначать более суровые наказания представителям этнических меньшинств и малообеспеченным гражданам. Значит ли это, что судья действовал «неэтично»? Нарушил ли он какое-то «этическое правило», последовав рекомендациям машины?

Поставленный авторами вопрос имеет смысл, если перевести его с языка медийных страхов на язык конкретной теории. Например, теории игр, пытающейся ответить на вопрос, при сочетании каких факторов люди будут скорее придерживаться правил игры, а не нарушать их.

Наталия Богачева
Киберпсихолог, кандидат психологических наук, доцент кафедры педагогики и медицинской психологии Первого МГМУ имени И. М. Сеченова
Исследователям удалось убедить меня в потенциальной опасности ИИ в роли исполнителя, и я склонна согласиться с их доводами. Что касается роли партнера, у меня сложилось впечатление, что в отношении нее доводы самые слабые и неоднозначные. Мне кажется, что ИИ-советчиков сейчас больше, чем ИИ, способных стать партнером, из-за чего их влияние может быть более масштабным.

На данном этапе развития ИИ ответственность, как мне кажется, всегда лежит на человеке: мы не можем рассматривать ИИ-программу, «написавшую» эссе, как ответственного участника событий. При этом тенденция перекладывания ответственности на ИИ, вероятно, существует. Появляется все больше работ, показывающих, что в тех или иных ситуациях (сложные задачи или экстремальные события) люди более склонны полагаться на решения ИИ, роботов или алгоритмов. Эта тенденция может быть связана не с ИИ как объектом, а с особенностями человеческого восприятия, тем более что все роли, которые описывают авторы, — это изначально человеческие социальные роли.

Любой ИИ — это продукт работы программистов и того массива данных, доступ к которому этот ИИ получает для обучения. ИИ не являются внешней и неуправляемой силой, скорее речь о том, что социальное взаимодействие человека и ИИ недостаточно изучено в целом и очень плохо изучено в контексте моральных и аморальных поступков. Изучать такое взаимодействие особенно сложно потому, что экспериментальные процедуры, толкающие человека на неэтичное поведение, сами зачастую не очень этичны, потому большая часть рассуждений в статье — это гипотезы и экстраполяция данных, полученных в другом контексте.

Можно действовать в двух направлениях. Первое обсуждается в статье: нужно учитывать возможность отрицательного влияния ИИ при разработке и регулировании ИИ, то есть изначально, на уровне дизайна, попытаться запретить ИИ участвовать в неэтичных действиях или научить его не давать неэтичные советы.
Глобально идея разработки ИИ с учетом такого влияния восходит, вероятно, к идее «дружелюбного искусственного интеллекта», о котором пишут, например, Ник Бостром или Элиезер Юдковский. Речь в общем виде о том, что если человечеству удастся создать полный искусственный интеллект, то есть машину, которая будет способна решать любую человеческую задачу, то этот искусственный интеллект еще на стадии разработки и дизайна должен быть создан дружелюбным по отношению к человеку, иначе его действия могут привести к уничтожению человечества.
Второе направление ближе к психологии и касается того, что происходит с обычными людьми, взаимодействующими с ИИ. Если говорить о желательных качествах людей, которые не просто взаимодействуют с ИИ, а еще и принимают решения с его помощью, то, кроме компьютерной грамотности, им нужна компьютерная самоэффективность. Самоэффективность — это вера человека в то, что он может решить поставленные перед ним задачи; она может быть разной в разных сферах жизни. Низкая компьютерная самоэффективность — это причина компьютерной тревожности, страха перед компьютерами и их возможностями. Следствием компьютерной тревожности может быть недоверие к компьютеру или, наоборот, представление о том, что он «умнее и знает лучше», что приводит, в свою очередь, к желанию слепо доверять решениям ИИ.

Судя по всему, авторы рассматривают поведение людей как результат скорее ситуационных факторов, чем личностных особенностей. Если мы принимаем эту позицию, будет полезно информировать людей о возможном влиянии ИИ на их поступки и суждения. Компьютерная грамотность в отношении систем ИИ (представление о том, откуда они черпают информацию, как их обучают, как они работают) будет способствовать более рациональному отношению к рекомендациям ИИ и частично компенсирует их отрицательное воздействие, хотя мы не можем полностью избавиться от когнитивных искажений или влияния стереотипов.
Ксения Киселева, Алиса Орлова, Дарья Теплякова