ВОЗ призвала с осторожностью относиться к использованию ИИ в медицине

Всемирная организация здравоохранения (ВОЗ) призывает в вопросах медицины относиться к «познаниям» созданных искусственным интеллектом больших языковых моделей «с осторожностью». Речь идет о таких быстро набирающих популярность платформах, как ChatGPT, Bard, Bert и многих других, которые имитируют человеческое общение.
Время прочтения: 3 минуты

Их стремительное распространение в обществе и растущее экспериментальное использование в целях, связанных со здравоохранением, вызывает значительный интерес. Это настораживает экспертов ВОЗ. Они считают, что необходимо тщательно изучить риски, возникающие при использовании больших языковых моделей для улучшения доступа к медицинской информации. Об этом особенно важно помнить, принимая связанные со здоровьем решения, опираясь на полученные от искусственного интеллекта данные.  

Хотя в организации в целом с энтузиазмом относятся к надлежащему использованию новых технологий для поддержки медицинских работников, пациентов, исследователей и ученых, эксперты ВОЗ предупреждают, что в случае с применением больших языковых моделей общество не проявляет ту осторожность, с которой оно относится к любой новой технологии.    Поспешное внедрение непроверенных систем может привести к ошибкам медицинских работников, нанести вред пациентам, подорвать доверие к искусственному интеллекту и тем самым отсрочить применение таких технологий во всем мире, предупреждают в ВОЗ.  

Среди проблем, связанных с применением больших языковых моделей в здравоохранении, вызывает обеспокоенность, например, качество данных, используемых для обучения искусственного интеллекта – они могут быть предвзятыми или неточным и представлять риск для здоровья. Языковые модели также могут не защищать конфиденциальные данные (включая данные о здоровье), которые пользователь предоставляет приложению для создания ответа.  

Ответы, сгенерированные языковой моделью, могут казаться авторитетными и правдоподобными для конечного пользователя; однако эти ответы могут быть полностью неверными или содержать серьезные ошибки. Также ответы могут быть использованы не по назначению, например для создания и распространения весьма убедительной дезинформации в виде текстового, аудио- или видеоконтента.  

ВОЗ предлагает разобраться с этими проблемами и получить четкие доказательства пользы больших языковых моделей до их широкого использования в здравоохранении и медицине.

Нужно хоть что-то написать