Глобальный взгляд Человеческие судьбы

Мишель Бачелет призвала ввести мораторий на использование систем искусственного интеллекта

При соблюдении ряда правил искусственный интеллект можеь стать хорошим подспорьем в медицине.
Фото Unsplash/M.Джиджич
При соблюдении ряда правил искусственный интеллект можеь стать хорошим подспорьем в медицине.

Мишель Бачелет призвала ввести мораторий на использование систем искусственного интеллекта

Права человека

Сегодня Верховный комиссар ООН по правам человека Мишель Бачелет призвала в срочном порядке ввести мораторий на продажу и использование систем искусственного интеллекта, которые ведут к серьезным нарушениям прав человека. Она настоятельно рекомендовала отказаться хотя бы на время от технологий слежки в общественных местах и программ, анализирующих поведение людей. 

«Искусственный интеллект может приносить пользу, помогать обществу преодолевать некоторые серьезные проблемы современности. Однако применение технологи искусственного интеллекта может иметь и негативные, даже катастрофические последствия, если не принимать во внимание то, как они влияют на права человека», — сказала Бачелет.

Сегодня в Совете по правам человека она представила новый доклад об искусственном интеллекте и правах человека. Главная правозащитница уверена, что сейчас необходимо запретить все приложения, использующие искусственный интеллект, которые не соответствуют нормам международного права.

«Чем выше риск для прав человека, тем строже должны быть нормативные требования к использованию технологии искусственного интеллекта», — сказала глава Управления ООН по правам человека. Она уверена, что для оценки и устранения проблем может понадобиться некоторое время, поэтому государствам уже сейчас необходимо ввести мораторий на использование технологий с потенциально высоким риском.

Авторы доклада проанализировали, как новые технологии ведут к тем или иным нарушениям в области прав человека. В документе говорится о том, как информационные технологии — включая профилирование, автоматизированное принятие решений и программы машинного обучения – затрагивают не только право людей на неприкосновенность частной жизни, но и права на здоровье, образование, свободу передвижения, свободу мирных собраний и ассоциаций и свободу выражения мнений.

«Искусственный интеллект проникает теперь почти во все уголки нашей физической и умственной жизни и даже влияет на наше эмоциональное состоянияе», — заявила Верховный комиссар.

Один из экспонатов на Глобальном саммите в Женеве, участники которого обсуждают, как использовать искусственный интеллект на благо человечества и избежать возможных негативных последствий

В докладе говорится о том, что государства и частные компании зачастую слишком быстро принимали решение об использовании приложений искусственного интеллекта без предварительного изучения возможных последствий. Это приводило к тому, что многие не смогли получить причитающую социальную помощь из-за неисправности онлайн систем, другие были арестованы из-за сбоев в устройствах распознавания лиц.

Авторы  доклада много внимания уделили тому, как системы искусственного интеллекта полагаются на большие данные, содержащие информацию о людях. Зачастую такую информацию собирают, анализируют и используют с помощью непрозрачных систем. Долгосрочное хранение таких данных сопряжено с риском нарушений права на частую жизнь и тайну переписки. 

«Учитывая быстрый и непрерывный рост технологий искусственного интеллекта, сейчас важно обеспечить прозрачность и подотчетность в том, что касается сбора данных, их хранения, передачи и использования», — сказала Бачелет.

По ее словам, самые серьезные опасения вызывают системы, занимающиеся обработкой моделей поведения человека. Она опасается, что «тенденциозные наборы данных», на которые опираются системы искусственного интеллекта, могут привести к дискриминационным решениям. Наибольшим рискам при этом подвергаются и без того уязвимые группы людей.

«Риск дискриминации, связанный с решениями, принятыми с использованием искусственного интеллекта —решениями, которые могут изменить или нанести ущерб жизни людей, - слишком реален. Вот почему необходимы систематическая оценка и мониторинг за системами искусственного интеллекта…», — считает главная правозащитница ООН. 

Она добавила, что в первую очередь необходимо разработать четкие принципы и рекомендации относительно биометрических технологий, которые становятся все более распространенными в деятельности государств, международных организаций и технологических компаний. 

Искусственный интеллект уже может принимать решения за человека. Алгоритмы в соцсетях могут ограничивать информацию, которую мы получаем.

Эти технологии, в том числе распознавание лиц, по мнению Бачелет, все чаще используются для идентификации людей в режиме реального времени и на расстоянии, что потенциально позволяет отслеживать людей без каких – либо ограничений. 

Авторы доклада напомнили о многочисленных призывах ООН к мораторию на использование технологий слежки в общественных местах, по крайней мере, до тех пор, пока власти не докажут, что эти системы соответствуют надежным стандартам конфиденциальности и защиты данных.

Верховный комиссар призвала все государства и все компании к большей прозрачности в том, что касается разработки и использования технологий искусственного интеллекта.  

Роль искусственного интеллекта в современном мире постоянно растет – новые цифровые технологии применяют практически во всех отраслях экономики. Предоставить информацию о нормативно-правовой базе использования искусственного интеллекта призвана новая онлайн-платформа, созданная ЮНЕСКО при участии ряда крупнейших международных организаций, среди которых Совет Европы, Всемирный банк и Организация экономического сотрудничества и развития.

На запущенном на этой неделе сайте https://globalpolicy.ai содержится информация о законах и правилах, определяющих применение искусственного интеллекта в той или иной сфере общественной деятельности. Одна из целей создания платформы – предоставить ресурсы, которые будут способствовать ответственному развитию и использованию новых технологий при соблюдении прав человека и уважении демократических ценностей.