ИНТЕРВЬЮ Как искусственный интеллект изменил нашу жизнь и зачем в ЮНЕСКО разработали рекомендации по его этичному использованию?

2 декабря 2020

Пандемия COVID-19 внесла серьезные коррективы в нашу жизнь. На ее фоне, в частности, ускорился процесс цифровизации: в течение нескольких месяцев резко увеличилось число людей, которые работают из дома и делают покупки в интернете. Одновременно появились технологии, призванные остановить распространение вируса, которые по сути являются технологиями эффективной государственной слежки за гражданами. О проблемах, связанных с развитием искусственного интеллекта, и о разработанных экспертами ЮНЕСКО рекомендациях по его этичному использованию, в интервью Людмиле Благонравовой рассказал программный специалист Сектора социальных и гуманитарных наук ЮНЕСКО Максим Карлюк.

МК: Начать надо, наверное, с хорошего, потому что технологии, конечно, приносят много хорошего в плане экономического развития. Даже до пандемии оценивалось, что их вклад в мировую экономику – это 4 триллиона долларов к 2022 году, а сейчас уже, наверное, больше в связи с ускоренной цифровизацией. 

Кроме экономики, это также трансформация сферы здравоохранения, образования, работы. Эти технологии помогают, в том числе, в сдерживании распространения вируса, в разработке вакцин. Электронные платформы держат экономику на плаву. Но, действительно, регулирования как такого на сегодняшний день нет. 

Есть несколько моментов, которые можно отметить. Во-первых, это отсутствие правовой определенности. Например, сейчас технологии искусственного интеллекта работают на основе обучения алгоритмов через определенные наборы данных. Такие системы могут «обучаться» на основе информации, в том числе полученной из внешнего мира.  Поэтому они могут действовать таким образом, который даже их создатели не могли предсказать. А предсказуемость критична для современных правовых подходов.

Такие системы могут вообще действовать независимо от создателей или операторов

Более того, такие системы могут вообще действовать независимо от создателей или операторов. Это усложняет задачу по определению того, кто в итоге будет нести ответственность, если что-то случится. На сегодняшний день нет четких правил относительно того, что делать, если такие ситуации возникают. 

Надо также понимать, что нет даже четких подходов к развитию технологий искусственного интеллекта, позволяющих избежать таких проблем, как неравенство, предвзятость, дискриминация, непрозрачность, неподотчетность этих систем. Это вопросы глобального характера. 

Например, неравенство. Мы видим, что есть концентрация данных технологий, их разработки, развития в определенных регионах или даже странах и компаниях. 200 компаний в мире создают 77 процентов всех инноваций в области искусственного интеллекта. Это может привести к злоупотреблению технологиями, это также усиливает цифровой барьер для многих стран и целых регионов, увеличивает экономический разрыв. 

Есть другой аспект неравенства. Например, женщины недостаточно представлены в сфере искусственного интеллекта. На сегодняшний день только 22 процента профессионалов в этой области по всему миру – это женщины. Только 14 процентов авторов исследований – это женщины. Только 18 представителей на ведущих конференциях – это женщины. 

Банки выбирают, кому дать кредит, а кому – отказать. Потому что это также все чаще делается на основе алгоритмов

Это имеет значение не только для обеспечения равенства возможностей в этой сфере, но и для того, какими эти технологии будут. Например, исходя из того, какие убеждения, какие идеи, какое видение преобладает при разработке алгоритмов и формировании наборов данных для их обучения и тренировки. Это ведет к серьезным социальным последствиям. Вплоть до того, как банки выбирают, кому дать кредит, а кому – отказать. Потому что это также все чаще делается на основе алгоритмов. И до того, кого и на сколько посадить в тюрьму. Потому что алгоритмы используются уже даже в судебной системе. 

Еще один момент, который я хотел бы обозначить здесь, это влияние на окружающую среду. Поскольку на сегодняшний день, на мой взгляд, недостаточно внимания этому уделяется именно в сфере искусственного интеллекта. А влияние очень велико, потому что хранение и обработка больших массивов данных и сама работа этих сложных алгоритмов требуют значительных компьютерных ресурсов, что, как показывают исследования, оставляет существенный «углеродный след». Только извлечение данных требует 10 процентов всей энергии, которая вырабатывается в мире. 

Безусловно, прогресс не стоит на месте, и сейчас обучение так называемых «нейронных сетей» во много раз эффективнее с точки зрения ресурсов, чем было еще 10 лет назад. Но мы все еще далеки от устойчивого развития данных технологий. Для этого всего необходима нормативная база.

ЛБ: Как изменить ситуацию и как обеспечить этичное использование искусственного интеллекта? Как страны могут разработать соответствующие законы, и какова роль ЮНЕСКО?

МК: Здесь необходимо понимать, во-первых, какие возникают проблемы в связи с развитием технологий. О некоторых из них я уже говорил. Во-вторых, необходимо определить способы их решения. И, в-третьих, нужны институциональные условия, чтобы эти способы эффективно внедрить, а потом применять на практике.

В прошлом году 193 государства-члена дали мандат ЮНЕСКО для разработки первого глобального нормативного документа об этических аспектах искусственного интеллекта, в виде рекомендаций. У ЮНЕСКО уже накоплен опыт в сфере этики науки и технологий, в том числе через работу консультативных органов, таких как Всемирная комиссия по этике научных исследований и технологий, и в процессе подготовки Рекомендаций [об этических аспектах искусственного интеллекта] ЮНЕСКО задействовала 24 ведущих эксперта в различных областях знаний всех регионов мира. Проведены масштабные глобальные и региональные консультации, были получены более 50 тысяч комментариев. Теперь у нас есть первый проект Рекомендаций, который уже был направлен государствам для комментариев.

193 государства-члена дали мандат ЮНЕСКО для разработки первого глобального нормативного документа об этических аспектах искусственного интеллекта

В следующем году запланированы межгосударственные переговоры по обновленному тексту, и мы надеемся, что он будет в итоге принят. Данный документ представляет собой полноценную основу для того, чтобы направить область искусственного интеллекта в сторону положительных результатов для человека, для общества, для человечества в целом и для окружающей среды, на что мы тоже делаем упор.

Это позволит максимально уменьшить те риски и негативные последствия, которые могут возникнуть. Для этого выработана система взаимосвязанных ценностей, принципов и, что самое важное, конкретных действий. На недавнем «Парижском форуме мира» один из ведущих ученых в области искусственного интеллекта Стюарт Рассел уже похвалил ЮНЕСКО за эту практическую применимость некоторых положений.

ЛБ: Вы уже упомянули, что технологии помогают бороться с пандемией, но вместе с тем, в ЮНЕСКО говорят, что на фоне пандемии мог увеличиться риск неэтичного использования искусственного интеллекта. Что это означает? Можете привести примеры?

МК: Я бы тут выделил как минимум два момента. Во-первых, на фоне пандемии мы видим беспрецедентную скорость цифровизации во всех сферах: работа, учеба, бизнес, онлайн-шоппинг и т.д. Число людей, которые работали дистанционно, до пандемии составляло 5-7%, а сейчас их 40-50%. И это повсеместно: Евросоюз, США, Филиппины, Малайзия. 

В бизнесе, например, в Африке некоторые платформы электронной розничной торговли выросли на трехзначные цифры. Эти примеры означают то, что риски технологий искусственного интеллекта, о которых я говорил, на самом деле были известны еще до пандемии. Они возникают из-за злоупотребления технологиями, их некорректной разработки или использования так называемых «предвзятых данных». Ускорение цифровизации приводит к ускоренному распространению рисков и проблем. 

На фоне пандемии мы видим беспрецедентную скорость цифровизации во всех сферах: работа, учеба, бизнес, онлайн-шоппинг

Например, недавно был случай в Великобритании, когда алгоритмы использовались для выставления окончательных оценок ученикам после того, как экзамены были формально отменены из-за пандемии. Такое оценивание привело к значительно более низким результатам, чем ожидали даже учителя, особенно у учеников из бедных семей. А финальные оценки в Великобритании имеют большое влияние на то, в какие вузы поступят ученики, что приведет к серьезным последствиям для их будущего. Это сразу же привело к протестам и требованиям объяснить, как алгоритмы работают, как они пришли к таким выводам. В итоге эти результаты отменили.

Я бы еще второй момент отметил: эти же технологии используются непосредственно для борьбы с пандемией. Часто это делается без существенной оценки рисков и этичности того или иного подхода. Отсутствуют руководства по поводу того, как оценивать точность и действенность инструментов, что может привести к постановке неправильного диагноза и т.д. 

Есть приложения на телефонах, которые призваны улучшить ситуацию с распространением вируса, чтобы он не распространялся так быстро и повсеместно. Но это в то же время технология слежения. Тут возникают вопросы конфиденциальности данных, использования этих данных не по назначению, в какой момент эта слежка заканчивается. Государства получают определенные полномочия. Когда эти полномочия заканчиваются? Заканчиваются ли они с пандемией или нет? То есть каких-то определенных правил во многих странах просто нет.

Государства получают определенные полномочия. Когда эти полномочия заканчиваются? Заканчиваются ли они с пандемией или нет?

 Данные о COVID, которые собираются для обучения алгоритмов, далеко не всегда полные и могут даже усиливать какие-то существующие в обществе стереотипы. Это также связано с отсутствием прозрачности и полного понимания, как алгоритмы работают, какие данные используются. Это приводит в итоге к сомнениям в точности соответствующих моделей и алгоритмов.

Я не говорю о том, что все плохо. Мы не должны останавливать использование данных инструментов, приложений и технологий. Мы просто должны понимать, что это очень мощные инструменты, которые не всегда легко понять, и мы должны подходить к ним осторожно. Для того, чтобы распространение этих технологий было направлено на преумножение позитивных результатов, на уменьшение связанных с ними рисков, нам необходима единая нормативная база. Желательно, глобального характера. Я думаю, что Рекомендации об этических аспектах искусственного интеллекта – это именно такой документ, который нужен, на основе которого можно будет дальше уже развивать как международно-правовые подходы, так и национальное законодательство.

Подписывайтесь на нашу рассылку.
Загружайте приложение для мобильных устройств:
   Для устройств iOS
   ♦ Для устройств Android