Материалы

Эксперты Центра подготовки руководителей и команд цифровой трансформации ВШГУ РАНХиГС обсудили этические вопросы применения ИИ

23 сентября главный редактор Центра Ксения Киселева приняла участие в дебатах «Побочки автоматизации, или Как избежать управленческих ошибок, доверяя искусственному интеллекту» на мероприятии IDC Future of Work Summit. Руководитель направления исследований и аналитики Екатерина Потапова выступила с докладом о предвзятости алгоритмов и ответственной разработке систем ИИ на конференции CNews «Искусственный интеллект 2021».

Сфер применения ИИ — множество, от предиктивной аналитики до распознавания лиц. В том числе компании все чаще используют ИИ в управлении кадрами. Алгоритмы могут быстро собирать и анализировать данные, определять по фотографии настроение или даже черты характера кандидатов. Но рекомендации, которые выдают системы ИИ, могут быть необъективными и предвзятыми. О том, какие этические риски возникают при использовании ИИ в управлении персоналом, на конференции IDC Future of Work Summit 2021 рассказала главный редактор Центра Ксения Киселева.

По словам эксперта, несмотря на то что технологии ИИ находят применение в разных областях, этические вопросы они вызывают одинаковые: как избежать предубежденности алгоритмов, кто возьмет ответственность за ошибки «умных» систем, как обеспечить и регулировать прозрачность решений на базе ИИ? За последние 20 лет бизнес все больше полагается на продвинутые цифровые технологии. В подтверждение этому эксперт привела зарубежную статистику: к 2019 году (еще до пандемии) более 85% крупных американских компаний использовали в своих HR-подразделениях решения, основанные на ИИ. 

«Технологии не просто эффективны: по природе они построены на анализе данных и могут тем самым показывать пути оптимизации и повышения доходности инвестиций. Мы не хотим тратить огромные деньги на некорректно работающие системы. Но реальность такова (число соискателей, число вакансий, предвзятость специалистов по подбору кадров), что мы не сможем обойтись без помощи систем ИИ. Вопрос в том, на каких данных учатся алгоритмы, кто за них отвечает», — отметила Ксения Киселева.

Спикер также обратила внимание на проблему предвзятости систем ИИ в целом и программ-советчиков в частности. Она считает этот вопрос одним из наиболее критических при применении ИИ. Незаметные на первый взгляд предубеждения и предположения скрываются в данных, на основе которых строятся системы ИИ. В итоге алгоритмы могут иметь серьезные «слепые пятна» и выдавать рекомендации, которые только укрепляют и воспроизводят эти предубеждения.

«Мы боимся, что алгоритмы могут быть предвзяты или излишне формальны, но забываем, что обычно люди еще более предвзяты. Допустим, ИИ анализирует снимок легких хуже, чем самые выдающиеся врачи, но значительно лучше, чем средний специалист. В таком случае предвзятость будет, но в среднем объективность окажется заведомо выше. В целом алгоритмы менее предубеждены, чем люди. К тому же, в отличие от человеческих, решения, принимаемые ИИ, могут быть раскрыты, исследованы и детально проверены», — подчеркнула Ксения Киселева

Таким образом, для корректной работы алгоритмов необходимо этическое регулирование.

Тему предвзятости ИИ развила руководитель направления исследований и аналитики Центра подготовки руководителей и команд цифровой трансформации ВШГУ РАНХиГС Екатерина Потапова на конференции CNews «Искусственный интеллект 2021». В своем выступлении она также обратила внимание на необходимость ответственной разработки решений на основе ИИ.Эксперт привела пример чат-бота, который создала французская компания Nabla, чтобы уменьшить нагрузку на врачей. Участник эксперимента обратился к боту-помощнику с вопросом, убить ли себя. ИИ дал положительный ответ. После этого случая разработку чат-бота прекратили. 

Екатерина Потапова отмечает, что ИИ — это не панацея, а инструмент. Несмотря на то что «умные» системы могут делать прогнозы, нет гарантии, что люди будут использовать их разумно и контролировать работу алгоритма. По мнению эксперта, главная проблема таких систем — это предвзятость. Решить эту проблему может этическое регулирование. 

«Этика напрямую связана с доверием, а доверие — с успешностью компании или страны в долгосрочной перспективе. Доверие граждан государству тает, когда технологии используют неэтично, когда их применение вызывает страх и наносит вред гражданам», — считает Екатерина Потапова

Спикер, отвечая на вопрос, как можно быть этичным, предложила использовать фреймворки, разрабатывать регламенты и политики, моделировать поведение пользователей. Среди других перспективных стратегий — использование решений Ethics-as-a-Service. Более подробно изучить тему этических рисков цифровых технологий можно в докладах Центра подготовки руководителей и команд цифровой трансформации ВШГУ РАНХиГС «Этика и „цифра“», выпущенных в 2020 и 2021 году.



Новости