Глобальный взгляд Человеческие судьбы

В ВОЗ призывают в вопросах медицины не верить на слово искусственному интеллекту  

Медсестра в лаборатории в Индонезии.
Фото Unsplash/Ирван
Медсестра в лаборатории в Индонезии.

В ВОЗ призывают в вопросах медицины не верить на слово искусственному интеллекту  

Здравоохранение

Всемирная организация здравоохранения (ВОЗ) призывает в вопросах медицины относиться к «познаниям» созданных искусственным интеллектом больших языковых моделей «с осторожностью». Речь идет о таких быстро набирающих популярность платформах, как ChatGPT, Bard, Bert и многих других, которые имитируют человеческое общение.

Их стремительное распространение в обществе и растущее экспериментальное использование в целях, связанных со здравоохранением, вызывает значительный интерес. Это настораживает экспертов ВОЗ. Они считают, что необходимо тщательно изучить риски, возникающие при использовании больших языковых моделей для улучшения доступа к медицинской информации. Об этом особенно важно помнить, принимая связанные со здоровьем решения, опираясь на полученные от искусственного интеллекта данные.

Хотя в организации в целом с энтузиазмом относятся к надлежащему использованию новых технологий для поддержки медицинских работников, пациентов, исследователей и ученых, эксперты ВОЗ предупреждают, что в случае с применением больших языковых моделей общество не проявляет ту осторожность, с которой оно относится к любой новой технологии. 

Поспешное внедрение непроверенных систем может привести к ошибкам медицинских работников, нанести вред пациентам, подорвать доверие к искусственному интеллекту и тем самым отсрочить применение таких технологий во всем мире, предупреждают в ВОЗ.

Среди проблем, связанных с применением больших языковых моделей в здравоохранении, вызывает обеспокоенность, например, качество данных, используемых для обучения искусственного интеллекта – они могут быть предвзятыми или неточным и представлять риск для здоровья. Языковые модели также могут не защищать конфиденциальные данные (включая данные о здоровье), которые пользователь предоставляет приложению для создания ответа.

Ответы, сгенерированные языковой моделью, могут казаться авторитетными и правдоподобными для конечного пользователя; однако эти ответы могут быть полностью неверными или содержать серьезные ошибки. Также ответы могут быть использованы не по назначению, например для создания и распространения весьма убедительной дезинформации в виде текстового, аудио- или видеоконтента.

ВОЗ предлагает разобраться с этими проблемами и получить четкие доказательства пользы больших языковых моделей до их широкого использования в здравоохранении и медицине.